iOS 13的FaceTime眼神校正的功能采用了ARKit
(ARinChina 2019年7月4日)现在我们进行视频通话时,当你看着屏幕中与你对话的人时,他们会发现你的目光在向下看,这是因为摄像头在屏幕上方。但最新的iOS 13测试版提供了一项名为FaceTime注意力校正的功能。这样做的目的是实时调整你眼睛的图像,让你看起来像是在看相机而不是屏幕。这意味着你会表现出眼神交流的样子。
很多人都发推文证实这件事,看起来这确实给人们带来了难以置信的不同体验。
只需要使用FaceTime邀请他人与你对话。在屏幕上看着他(而不是看着相机),会产生这样一幅画面:我在注视着你而不是一直盯着相机发呆。这是疯狂的。
伦德尔说,他早在2017年就预测,这一功能将在“未来几年”存在,但令他惊讶的是,它出现的这么快。顺便说一句,他当时的其他预测是:
通过始终开机的摄像头,让iPhone意识到周围的环境,并在iPhone附近的3D空间中不断扫描、绘制地图和跟踪物体
眼球追踪允许软件预测,使软件界面的各个方面完全由注视引导(苹果公司在2017年早些时候收购了全球领先的眼球追踪技术公司SensoMotoric Instruments)。从用户面部的相机数据(我的脉搏等)中提取的生物特征和健康信息。先进的图像处理算法,确保FaceTime通话总是显示你的眼睛看着对方
随着IPhone机器学习能力的提高,它可以完成更多计时计算任务 (这间教室里有多少人,我和红绿灯之间有多少辆车,桌子上有多少支铅笔,衣柜里有多少件衬衫叠好了,等等)。即时测量物体和空间的尺寸,不需要携带其他AR设备 (那面墙有多长,那口有多宽,那盏灯有多高,等等)。
FaceTime的眼神交流矫正使用了ARKit技术,它只需要使用ARKit抓取你脸部的深度地图/位置,然后相应地调整眼睛。在调整面部位置时,会发生一些图像翘曲。当你把一副眼镜放在脸上时,就可以看到这种翘曲:眼镜的直臂被调整眼睛的特征扭曲了。
我只能重复iOS开发者Gualtiero Frigerio的话:“现在的技术是如此的酷和先进,我们可以用“简单”这个词来描述这样一个功能的实现。”
开发人员Aaron Brager指出,该功能似乎依赖于ARKit 3的一个api,因此仅限于iPhone XS/Max和XR,而不适用于iPhone X。