智能电视厂商们 是时候用3D技术变革一下使用体验了
除了遥控器和越来越被广泛采用的语音控制外,3D动作扑捉技术也正在成为电商上为数不多的下一个可能。想象一下:坐在客厅里,挥一下手就能翻动页面、选择节目,向两个方向滑动手臂就能放大网页、图片……这样的技术或将最终改变人和智能电视交互的方式。
其实,3D动作捕捉技术已经被用在体感游戏、智能手机等多个领域,最近的两个大消息是:Google的Project Tango项目和亚马逊的3D手机,都会采用这种技术来搭建新型硬件——通过多个摄像头,这些产品能够直接识别周围的环境和动作,这些信息显然会对硬件的交互方式带来改变。而智能电视厂商也已经开始了类似的尝试,比如,乐视已经发布了智能电视体感操作系统LetvUI 3.0——配合体感摄像头,挥挥手可轻松完成桌面切换、调出菜单、频道选择、使用应用程序等操作。
不过,虽然同为3D捕捉技术,但却也有着截然不同的多种实现方法,其中按技术上说,大体可分为Structure Light和Time of Flight两大类。近期,PingWest采访了3D动作捕捉技术公司奥比中光的CEO黄源浩,请他分享了主流3D体感技术解决方案及其之间的差异。
黄源浩告诉PingWest,苹果和Google使用的是Structure Light方案,而微软、英特尔使用Time of Flight方案。由于这两种技术方案都有大公司在用,所以很难说哪一个绝对领先。不过黄源浩本人更看好Structure Light方案。
谈到其中的原因,黄源浩表示,Time of Flight对CMOS芯片的高速响应要求非常高,现成的芯片都不宜使用,所以必须开发专用CMOS。这意味Time of Flight方案材料成本、工艺成本方面,都比Structure Light采用的现成芯片方案要高出不少——通常,Time of Flight的传感器比Structure Light的要贵50%以上。
而在分辨率方面,Structure Light的方案已经可以做到1280×960,而微软Xbox One上面的Time of Flight现在的深度分辨率只是512×424,所以这方面Structure Light也要更胜一筹。
那么,Structure Light是怎么实现识别人体动作,再用它来控制各种智能设备的呢?
一个Structure Light的3D感应器基本由RGB彩色摄像机、红外线发射器和红外线CMOS摄影机组成,他们的作用是捕捉动作。接着,再使用光学测量原理,深度学习算法,系统会量化这些动作——即把用户对应的行为转换成数字语言,“投射”到屏幕上。
之前,微软在游戏姿态识别方面做了不少研究,不过和游戏相比,智能电视的交互还非常看重坐姿识别和手势识别的精确性。此外,毕竟体感游戏将会是智能电视的一项重要特性,所以对于支持3D操控特性的智能电视来说,坐姿识别、手势识别和游戏姿态识别一样都不能缺失。拿奥比中光的3D体感器来说,这台使用Structure Light方案的设备可以让用户在3-4米外通过手势来操控电视。黄源浩说,接下来要解决的问题是,如何解决多人同时进行体感游戏的识别。
其实,就像触摸屏的交互方式把智能手机行业拉升到一个全新的高度一样,3D动作捕捉交互技术或许也将改变智能电视行业。
回顾一下人机交互的发展过程我们不难发现,在功能机时代,人机交互的方式颇为单调,基本上所有的操作都是通过敲击键盘完成的;而当触摸屏被广为接受时,除了常规的点击,人们还可以通过滑动等其他方式来操控设备——这带来的不仅是交互方式的改变,新的产品设计模式、使用场景都应运而生了:例如“摇一摇”、下拉悬停、擦除游戏……不难看出,手机行业的“新生”和交互方式的革新密不可分。而随着3D体感技术的成熟,抓取、拖曳等操作将成为新的人机交互方式,与手机行业类似的转变将可能在智能电视行业重演。