苹果「口罩版Face ID」年前出街,新冠时代iPhone用户终于能戴口罩刷脸了
【新智元导读】虎年新年前,果粉们迎来了春节礼物:新冠时代无数苹果用户呼吁良久的「戴口罩也能用Face ID刷脸」的功能,终于被包括在iOS 15.4的更新里啦。
苹果在iOS 15.4的更新中,引入了戴口罩也能使用Face ID的功能。按照各种用户体验图,系统提示中将会说「iPhone可以识别眼部周围区域的特征」但不戴口罩更精确。
戴口罩也能用苹果的Face ID刷脸认证了
新冠大流行席卷全球,「戴口罩出门」成为常态,对许多智能手机用户来说,利用生物特征解锁或「Face ID解锁」变成一大挑战,因为口罩一旦遮住脸部特征,辨识成功率势必下降。
过去有很多网友分享,多输几次密码,可以训练Face ID,让它记住主人戴口罩的样貌。但这么搞至少要花1周到几个月时间,试错从几十到上千次,才能增加脸部辨识的些微成功率。
2020年iOS 13.5更新后,iPhone会检测到试图戴口罩使用Face ID的用户,并立刻提示用户输入密码。
2021年iOS 14.5和watchOS 7.4发布后,苹果增加了戴口罩用户戴Apple Watch时解锁iPhone的功能,这样可以不再需要输入密码来代替。
然而,虽然"用Apple Watch解锁"允许用户在戴口罩时解锁他们的设备,但其他依赖Face ID的功能如Apple Pay和应用内认证却无法工作。
现在,当升级至 iOS 15.4后,用户可以直接在Face ID设定中发现新的口罩选项,点击开启后,戴着口罩的用户重新「扫脸」设定一次Face ID,重新录入一遍面部数据即可。
若用户平常戴眼镜,也有「添加眼镜」的选项,协助用户戴着眼镜和口罩时能更准确地解锁Face ID。用户可以稍后添加眼镜信息。苹果公司允许每台手机注册最多四副眼镜。现在还可以在戴着口罩时验证Apple Pay交易。
据已体验者称,目前来看,解锁速度不受影响。
尽管如此,苹果在设置应用程序中警告说,戴着口罩使用Face ID的安全性较低,生物识别系统在使用全脸识别时仍然"最准确"。要让带口罩的Face ID发挥作用,必须看着设备才能让它解锁,而且戴着墨镜时,它不能发挥作用。
旧苹果设备没法用的原因:芯片还是传感器?
此项功能,现在仅限iPhone 12及更高版本的iPhone用户使用,iPad Pro用户也不能用。
按苹果的说法,为了让Face ID在用户戴口罩时也能起作用,他们开发了新的算法,经过训练可以识别眼睛区域周围的区域来解锁用户的设备。这些新算法新功能得依托「TrueDepth摄像头系统的相关改进」。
这个语焉不详的官方解释让果粉网站与科技媒体要么束口不言、要么猜测纷纷。
现有的最合理猜测集中于两种:要么是新功能必须基于iPhone 12及以上的新芯片,要么就必须基于2021年TrueDepth系统光学器件的新专利。
有关芯片的猜测,Reddit的果粉板块上,有人说得很有道理:「如果全脸扫描识别需要使用一定量的时间、算力等处理资源,然后处理部分脸部扫描识别的还是同等量资源的话,那么算法必定要在识别全脸扫描时忽略的小细节上投入更多算力。」
如此办法自然会对芯片性能有下限要求。而且这有前例:2021年iOS 15推出时,就有多种新功能至少需要手机配备A12芯片。
考虑到先例,「口罩版Face ID」只能用于iPhone 12及以上,很可能是因为改进后的面部识别算法至少要用到苹果A14与A15仿生芯片的性能与算力,而这两款芯片正好是专属于iPhone 12、13,iPad Air第4代与mini第6代的。
还有人从苹果官方解释的字面去理解:要依赖TrueDepth系统的改进,那应该是摄像头、激光衍射系统这些组件上的新动作。
别说,TrueDepth系统还真有过最近才有的专利改进。
2021年1月苹果放风开搞、2021年美国专利局公布的TrueDepth系统新专利,号称能改善Face ID的3D构图功能,将用于现有产品与未来的智能眼镜、混合现实(MR)头套等产品。
具体而言,专利里的新技术着重改善一种弊端:垂直腔面发射激光器 (VCSEL)的过量发热与散热不均,降低给定供能下的激光辐射质量。
苹果的新专利重新配置了光电子器件的结构,通过改变发射器散焦阵列、光学元件、散热结构等器件布局,既提高了激光散焦衍射的功效,又提高了散热功能、降低了热辐射干扰。
Face ID如何起效?
2017年,苹果Face ID技术初现时,工作原理就已被详解过:
先用泛光感应组件照亮用户的脸部,获取2D红外照片。
红外激光生成器射出激光束,通过点阵投影器进行衍射,获得必需的散斑图案。2017年的iPhone X就能投射3万个此类光点。
这些散斑有高度随机性,还会随着距离差异来变换图案。只要在空间内打上这样的结构光,相当于空间已经被细分、每个区域都做了标记。
只要测绘对象进入此空间,用红外镜头把空间的散斑图案记录下来,与之前2D红外照片的基准标定进行对比计算,就能获取到当前物体每个细点与手机的具体景深距离,从而获取物体的形状信息、构建出3D精确模型。
将红外图像和3D模型发送到处理器中,由AI生成数学表达式,与之前注册的面容数据比对后,就会得出识别结果。
此技术带来了在当时无与伦比的含有效信息的图像分辨率,而且能以提高光点数目、创建更精细的3D面部模型提高安全性。
这些计算量在当时必须要用苹果A11芯片的神经生物引擎,通过神经网络技术来进行机器学习和算法优化。才能做到随用户使用更新内部存储的面部识别数据、让识别基准与用户本人面部变化基本同步等等功能。
时移世易,三五年间,当时的尖端技术就落伍到鞋底泥一样,跑不动新功能了。更惨的是,即使到现在,小编还是买不起iPhone……
参考资料:
https://www.theverge.com/2022/1/27/22904908/apple-ios-15-4-beta-1-developer-face-id-maskhttps://thenextweb.com/news/why-face-id-with-mask-iphone-12-analysishttps://www.cnbeta.com/articles/tech/1231365.htmhttps://www.macrumors.com/2022/01/27/face-id-mask-ios-15-4/https://www.patentlyapple.com/patently-apple/2021/11/apple-invents-advancements-for-their-truedepth-camera-to-improve-face-id-and-3d-mapping-for-idevices-future-mr-headset-and-s.htmlhttps://www.tomsguide.com/news/finally-ios-154-lets-you-use-face-id-with-a-mask-and-we-tested-ithttps://www.reddit.com/r/apple/comments/se5pco/ios_154_enables_face_id_support_while_wearing_a/本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,36氪经授权发布。