下周,苹果就要召开今年秋季第二轮发布会,重点当然是久等的 iPhone 12 啦。
只是机哥想起,上个月发布的 iPad Air 4,至今还没有发售……
毕竟 iPhone 12 可能搭载的 A14 Bionic 芯片,抢先在 iPad Air 4 身上发布。
机哥原本还以为能提前看看 A14 究竟有多厉害呢。
而且这次苹果也给 iPad 系列第一次搞起了多彩配色,机哥瞅见,有网友说 iPad Air 4 也许不仅抢发芯片,可能还抢发 iPhone 12 的机身配色。
于是有大神,自己动手做了一张渲染图,还似模似样:
(非官方)
这么一说,再加上全面屏、支持 2 代磁吸式 Apple Pencil、换上 USC-C 接口,其实 iPad Air 4 的更新幅度还挺大的嘛~
但是,机哥要说但是了。
在我看来,iPad 今年最大的「创新」,并不是硬件,反而是软件。
没错,机哥说的就是 iPadOS 14 。
甚至我觉得隔壁 iOS 14 那些小组件、App 资源库的新功能,只能说是「更新」,而不能说是「创新」。
因为苹果今年在 iPad 的系统上,做出来一个很酷炫的功能:随手写。
更新到 iPadOS 14 之后,机哥只要在系统里看到有能够输入的地方,都可以直接拿 Apple Pencil 往上面写。
然后系统就会自动把我们手写的笔迹,转成文本。
然后输入之后,还能仅用一根笔,完成文字的框选、删除、插入、空格等,以前要用键盘才能完成的操作。
But,是不是乍这么一听,觉得平平无奇?
你们的内心OS,大概想吐槽:就这?这也能叫创新?
嘿嘿,接下来看好了。
如果机哥在 iPad 自带的备忘录 App 里手写,我不仅可以像正常的文本那样,选择某一个字、甚至选中某一段话,然后复制到别的 App。
要知道,这可是手写的字,并不是电子文本啊。
这还不算最神奇的!
最流弊的地方是,如果机哥写下一个网址,长按它,能直接打开那个网站。
类似的,如果是手写的电话号码,能直接拨打。
手写的日期时间,能直接建立日程安排、待办事项等等。
……
但是,iPadOS 14 这个功能,不仅是全局支持自动转换,而且还支持中英文混写。
大家想想看,每个人的笔迹都不一样、写字的力度不一样、每个人的笔画习惯也不一样,如果还夹杂着字母、数字、标点符号,这识别起来的难度可想而知。
辣么,这么复杂的功能,苹果是怎么做到的呢?
刚好前不久,苹果副总 Craig Federighi 接受采访时,曝光了苹果是怎么实现它的。
(就是之前主持发布会的那位)
以前也有别的公司做类似的东西,但他们往往是直接拿现有的笔迹来扫描和分析。
机哥举个例子吧,咱们现在可以去找出王羲之的真迹,把他写下的每一个扫描出来,然后分析他是怎么写的。然后再用这些数据,生成别的字。
你们读小学时,应该没少练字帖吧?
但是,这次是 Craig Federighi 说的但是。
这种方法,满足不了 iPad 这个「随手写」的功能。
因为 iPad 使用的人群,覆盖了全世界多个国家和地区、多种不同人群、多种不同年龄的人、还有各种职业等等等等。
简单来说,就是用 iPad 的用户,人与人之间差别太大。
就好比医生写的“天书”,跟咱们普通人写的字,那能一样吗……
(图片来源于网络)
所以苹果才说:
仅靠静态例子是不够的,我们需要查看构成每个字母的笔画。如果您了解笔画以及笔画如何下降,则可以用来消除所写内容的歧义。
机哥猜,这里的笔画,应该不仅仅是把文字拆开,还包括笔画的顺序、笔触的力度等等。
很多时候,同一个字,由不同人写的方法都是不一样的
只有摸透了绝大部分写字的方法,才能让 iPad「随手写」的识别度到达“能用”的状态。
辣么,苹果的解决方法,机哥觉得虽然不见得新颖,但的确有效。
据 Craig Federighi 表示,在开发期间,苹果从世界各地找来了一大群人。
意图很明显啦,是想尽量覆盖不同手写习惯的人群。
然后苹果递给他们一支笔,让他们快速书写、让他们缓慢书写、倾斜书写。
emmm,机哥突然想象出一个场景,苹果一群理科男的工程师,对找来的志愿者喊:
“慢一点啦,不要那么快啦~”
“对对对,歪一点。”
“再用力一点……”
然后再用机器学习,分析这些数据,才知道这“鬼画符”写的是什么。
最终,当 iPad 越来越懂世界各地的人写字的方法,无论是中文还是英文,它通通能够识别出来。
值得一提的是,目前 iPadOS 14.0 的「随手写」,第一批只开放了英文、简体中文和繁体中文。看来库克还是很重视中国市场的嘛~
而且不知道是不是巧合,苹果两任 CEO 都学过书法。
呐,库克写的毛笔字,其实也就那样……
而乔布斯也曾经透露,Mac 电脑字体最初的设计灵感,来源于他大学时上的书法课。
机哥这么一瞅,两任 CEO 都那么喜欢手写,今年 iPadOS 14 在手写这件事情上,花那么大的人力、物力、财力去做「随手写」,好像也不奇怪了…
玩笑归玩笑,不管是基于什么原因要做这个功能,现在我们用起来方便就行啦。
不过嘛,像这种“拼人头”,从全世界找到 N 个不同的人,收集他们的数据,最终开发出一项新功能,类似的事情苹果也不是第一次干了。
比如说,AirPods 的前身:EarPods。它是在 2012 年,跟随 iPhone 5 一起发布的。
我们都知道,每个人的耳朵轮廓,其实都是不一样的。
辣么,耳机要想戴得舒服,最好就是贴合耳朵的轮廓。
于是苹果号称找了成千上万人,然后 3D 扫描他们的耳廓,最终设计出符合绝大部分人耳朵的 EarPods 设计。
所以当年 EarPods 前前后后折腾了 3 年,才开发出来。
后来的 AirPods、AirPods Pro,都是在这个基础上改良而来的。
所以说,要搞出一个好东西,要不就砸钱、要不就砸人……
另一个例子嘛,则是我们天天都在用的 Siri。
还记得去年,因为 Siri 在收集用户的对话来优化自己的准确度,闹出了一场隐私门,当时机哥也有写过文章。
后来苹果出公告说,收集的过程使用的是差分隐私技术,所以数据不会对应某个用户,然后随着 iOS 13 的更新,也支持删除 Siri 的数据。
但这件事情也可以看出,要做一个 AI 人工智能,还是要拿成千上万的数据,喂进去让机器分析,才能做出来。
而像 Apple Watch 的洗手提醒、运动姿势分析等等,苹果在公司内部有个实验室,是专门请人来做各种姿势……
最终经过机器学习、建模,才出现我们现在手表上各种健康检测功能。
(图片来源于网络)
机哥也不得不感慨,现在要做一个符合大部分人使用习惯的产品,太不容易了。
其实要想符合全世界 70 亿人的产品,最好的方法就是把 70 亿人都拉来调研,然后总能开发出贴合每个人的产品。
但是这肯定不符合现实~
所以各大科技公司,就要在条件允许的情况下,尽量多的、拉不同的人来调研。
其实上面那么多苹果的例子,只是一个缩影,别的科技公司也一样。
做耳机的,像 OPPO、vivo、小米,也有找志愿者来对他们的耳朵进行 3D 建模。
做语音助手的,像微软、谷歌、亚马逊,都是工程师从海量的数据中,不断拿出来优化的。
其他硬件或软件也都一样,尽可能多的测试和实验。
而我们今天能用到那么多数码产品,背后都有无数工程师和无数志愿者的努力。
这么想想,机哥觉得每个数码产品,确实都挺有重量的呢~
转载请超链接注明:头条资讯 » 我错了,苹果这次其实有重大升级
免责声明 :非本网注明原创的信息,皆为程序自动获取互联网,目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责;如此页面有侵犯到您的权益,请给站长发送邮件,并提供相关证明(版权证明、身份证正反面、侵权链接),站长将在收到邮件24小时内删除。