解读4维光场:VR设备真正的杀手锏
Oculus Rift在视觉体验上已经做得很不错了,Oculus花了很长时间将硬件提高到目前的水准,要知道在视觉上骗过人类的眼睛和大脑是件很困难的事情,我们从出生开始就活在3D世界中,所以很容易辨别出来一个模拟的3D环境有哪里不太对劲。于是就导致了头晕、恶心等等这些症状,甚至于再也不想玩VR了。
导致VR之路如此艰难的很大一部分原因,是我们虽然离VR屏幕只有几厘米,却试图说服我们的眼睛,屏中景物在距离我们很远的地方。
当前这一代的VR显示设备,使用了很多不同的方式,在一块扁平的屏幕上人工地生成拥有深度信息的图像。但缺忽略了一个很重要的技术,这项技术可以让VR图像看起来非常自然与舒适——4维光场,它允许类似Lytro的光场相机可以接近真实地还原光场信息,显示拥有深度信息的图像,从而更好地缓解“晕动症”难题。
先看看传统的VR显示设备,比如Rift,利用以下几种因素来创造拥有深度信息的图像:
双目视差
你的左右眼分别看到不一样的景象,当你的大脑处理这两个影像的时候,双目的视差会给你带来景象的深度信息。
动态视差
当你左右摇晃脑袋的时候,离你近的景物比离你远的景物会移动地更迅速一些,因此VR显示器可以利用此特性将深度信息加入进来。
双目遮挡
某个景物在场景的前方,因此会遮挡住后方其他的景物,这就造就了景物根据距离的自然排列。因此,假如一部分遮挡信息同时进入双眼,大脑就会产生相应的深度信息。
视觉辐辏
当你的眼镜注视某个物体时,离你越近的景物,越会被眼睛向内翻转(收敛),以保证其在视域的中心;离你远的景物,会被眼睛向外翻转(发散),直到无限远。翻转量使得大脑可以计算出景物的深度信息。
为了更好地利用以上特性,大多数VR显示器分别对每只眼睛显示单独的图像。假如这些图像与头部的运动同步地调整与显示,则可以创造人眼可以承受的视觉深度信息。
然而,即使像上述那样欺骗大脑创造出了有深度信息的图像,你的大脑依旧会发现一些地方不对劲。视觉辐辏与另一个深度要素息息相关:焦点调节。当你聚焦于近处的景物,晶状体收敛性调节;当你聚焦于远处的景物,晶状体发散性调节。大多数VR头显并没有将焦点调节考虑到其中,导致全部的图像一直处于某一个聚焦的状态,但是你的晶状体却会随着立体影像不断聚散。
你的大脑极其反感这种情况,这种所谓“视觉辐辏调节冲突”便会导致视疲劳、重影、头疼、恶心等一系列症状,最严重的是,这还有可能导致儿童发育中的视觉系统的病变。
那么此时,有个方法可以解决这些问题:4维光场技术。
那么什么是光场?
简单的说,光场是空间中同时包含「位置」和「方向」的四维光辐射场的参数化表示,是空间中所有光线光辐射函数的总体。
其两个主要应用方向是「光场拍摄」和「光场显示」,第一种需要记录下来整个空间的所有信息,第二个则是需要将这些信息完整地复现出来。通俗地说就是在空间内任意的角度、任意的位置都以获得整个空间环境的真实信息,用光场获得的图像信息更全面,品质更好。
那么什么是4维光场?
空间中一束光的「位置+方向」信息,需要5个维度的坐标来确定—位置需要「X,Y,Z」三个维度(三维坐标系中的点),方向需要「θ,φ」两个维度(三维坐标系中,θ角是某点与原点构成的直线在XY平面的投影与X轴的夹角,φ角是某点与原点构成的直线在XZ平面的投影与Z轴的夹角)。在计算中,每多一个维度,就会将计算量大大提高,因此要尽量降低维度,所以使用了一个简单的模型,即利用某条光线与其穿过的两个平面的交点,来表示这条光线的位置与方向,假设这两个交点在各自的平面的坐标是(u,v)和(x,y),则这条光线的坐标就是(u,v,x,y),巧妙地从5维降为4维。
为了理解什么是4维光场,以及它何如工作,我们可以从它的实际应用聊起,即4维光场相机,简称“光场相机”。Lytro是光场相机品牌中最优秀的之一,对于Lytro相机原理的解释,有个有趣的比喻:它就好像把一大簇迷你相机捆在一起,同时从一个场景的多个视角捕捉光线信息,当捕捉到每束光线的方向信息后,使用一系列数学方法重建一个数字光场,还原出一个趋近于真实世界的光场。
现在你可以使用光场相机从各个角度捕捉图像了,将光场信息从VR头显输出,便可以有效缓解“视觉辐辏调节冲突”和“晕动症”等等这些问题了。不过,仅仅是“缓解”,而不是“解决”。光场技术仍属于起步阶段,从各个方面还不够成熟,从「捕捉」到「显示」,要解决的问题还太多太多,任重而道远。
来源:IT之家