谷歌面部追踪468点,无缝贴合3D人脸,不用深度 传感器
谷歌发布了ARCore 1.7,可以帮你定制一张3D“面具”,人脸贴合几乎天衣无缝。
因为,有了面部增强API,不用依靠深度传感器,就能让AR效果紧贴3D人脸,手机端也没有压力。
许多安卓用户已经开心地玩耍了起来。
除此之外,有了视觉上的直观导引,新的ARCore更加易于开发者食用:上图是在提示游戏开发者,不要让玩家倒着走。
468个点,穷追不舍
谷歌团队说,面部增强API (Augmented Faces) 提供了高质量的3D网格,包含468个追踪点。
脸部追踪分成两步:
先定义中心姿势(Center Pose) ,是指人头的物理中心。所以说,这个点不在表面而在里面。
然后是脸部网格(Face Mesh) ,包含数百个顶点。每个点的位置,都是参照物理中心点来定义的。
这个API把人脸分为三个区域来识别姿势:左前额(Left Forehead) ,右前额(Right Forehead) ,以及鼻尖(Nose Tip) 。
把中心姿势、脸部网格以及三个区域结合到一起,ARCore就这样支持精细的三维AR效果了。
比如,把3D狐狸耳朵和鼻子,美好地贴到人类脸上。
这三个部分,有各自独立的骨骼,可以单独移动,去找它们该在的位置。
除此之外,还有眼影、雀斑和其他细节:
不知道狐狸妆的效果怎样,但这个脸上满是数字的男子,看上去还是很开心的:
你也可以去Google Play下个新版应用试一下。
新版ARCore,增加了一个叫做ARCore Elements的版块。把各种预置的UI组件整合在里面,让开发者们轻易上手。
Elements分成两个部分:
一是寻找平面。
二是操纵物体。
除此之外,Elements还给了游戏开发者一些温柔的提醒。
比如,物体不要太小,要设置成玩家容易点击到的尺寸:
比如,如果小鸟飞出了屏幕,可以加个方向标,帮用户追踪屏幕之外的物体运动:
这个应用,也可以到Google Play去下载:
里面的世界很丰富,有清澈的流水,有兴奋的恐龙……就算不是开发者,也不妨前往一游。