虚拟现实和增强现实技术之技术原理

虚拟现实和增强现实(ARVR)技术发展到今天时,市面上已经涌现出各种类型的设备,最新元宇宙大厂Meta的Quest也在上个月发售,其拥有突破性高分辨率的混合现实技术,采用了较上一代更先进的PanCake光学透镜方案,为了给用户最完美的3D视觉呈现。那元宇宙都如此火爆,你知道3D显示技术究竟是什么吗,让我们来一探究竟吧。

3D技术的原理和起源

3D显示技术目前概念十分宽泛,目前广泛定义为一种可以向观看者传递景深的设备,通过一系列光学方法使人在脑海里成像具有3个维度。目前较新的全息显示器和光场显示器通过对于要显示的内容进行立体视觉化和成像焦距的精确把控可以产生更逼真的视觉效果,同时也极大程度的减少视觉疲劳。

3D显示器的基本原理是利用人的双眼成像,通过不同眼球分别传输不同的图像,然后本来2D(只有X和Y的图像)在大脑中自动组合,最终形成具有景深的3D图像。通俗来说,目前我们用到的3D显示例如ARVR设备,都是利用Pulfrich effect原理,这是一种心理物理学感知,由于人的两只眼睛在看到图像时有差异,所以视场中物体的运动(或者不同角度)被视觉皮层解释为具有深度分量。

有个不太为人知的知识,早先患有眼部疾病的例如:白内障、视神经炎或者多发硬化症的病患,在马路上难以判断迎面而来的汽车,当时大家还不理解这究竟是为什么。后来海德堡天文台的创始人马克斯沃尔夫在对于恒星的研究中发表了一个立体视觉具有局限性的问题论文,而本来就是一只眼睛失明的德国物理学家Carl Pulfrich的注意到,论文中同一颗恒星在不同照相底片上的亮度变化会产生一种错觉运动的现象,然后设计了一个投影设备,然后向同样是一只眼睛的人进行了很好的展示,并于1922年首次公开描述了这种现象。

而真正追溯到第一个3D显示器是由英国科学家惠斯通发明的镜面立体镜, 1840 年,他因对双眼视觉的解释而获得皇家学会皇家奖章,这项研究促使他绘制立体图并构建立体镜。

查尔斯·惠斯通镜面立体镜(图源:WIKI)

3D显示技术的发展

通过立体视觉原理,人们制作的丰富的电影图像和照片,给观看者两只眼睛不同的图像,这两种图像具有刚好在人眼位置拍照样的微小偏差,就能在大脑里创建3D的图形。想要让观看者舒适的观看就要借助光学的一些工具。

早期红蓝透镜

在3D电影或者摄影的早期,通常用两幅图像(一个红色和一个蓝色)叠加在荧幕或者照片纸上,两个图像稍稍错位距离基本上就是人眼的观看错位,然后观看者佩戴不同的蓝红滤色片眼镜就能在两只眼分别看到红色和蓝色的像,进而在大脑自动合成成3D的形状。

早期的红蓝3D滤光片眼镜(图源:网络)

这种色分法成像就是利用不同的滤光片将图像上的某种特定颜色的光滤掉,到达人眼就是左右两幅图像,然后大脑会根据红蓝两副图像自动合成看到的物体的位置和色彩,这样就形成3D景象。

色分法成像示意图(图源:网络)

偏振光成像原理

红蓝成像会让人很容易视觉疲劳,并且时间长了还会有视觉受损的情况,其实成像效果也并不理想,所以科学家们又发明出了偏振光的方法。利用偏光片(栅格排列的硅晶体涂料薄膜)来滤掉不同偏振方向的光。

偏振光分法成像原理(图源:大大通)

这种成像方法需要投影两种不同的偏振光,观看者佩戴不同偏振片的眼睛,来让两个方向的光进入眼睛,通过大脑在合成3D图像,这种方案没有色差,对人眼损害较小,所以目前主流的3D影院基本都是偏振光的3D方案。

交替快门、视线遮挡和阵列透镜法

在了解只要让两只人眼看到的两幅画面不一样,大脑在处理同时到达的这张图时就会自动合成3D效果这个原理后,各家开始开发各种显示设备,通过显示器和3D快门眼睛配合可以在高场频刷新两张图,并且分别进入左眼和右眼,来达到3D效果。

快门法3D显示装置原理(图源:太平洋)

视线遮挡的思路是在显示屏上做出类似栅栏的装置,在特定位置的人眼可以看到从缝隙透过来的不同光线,进而达到3D视觉。

透镜阵列是在显示屏上做一组微型透镜阵列,让不同排列的LED发出的光分别聚焦在人的左眼和右眼上。

不同裸眼3D技术(左:视线遮挡,右:透镜阵列)

VR虚拟现实

现在市面上大火的VR头显则是利用两块显示屏,通过CPU控制显示不同画面,然后用摄像头捕捉人的眼球聚焦点来显示眼前不同的画面,达到大脑成像时的3D效果。像是Meta的Quest,字节的Pico都是复杂的光学设备来在近距离成像,这种设备需要强大的CPU和GPU来计算需要显示的图像,现在还处在刚刚兴起的阶段。

全息成像

近来最火也是目前看起来最炫酷的3D技术当属全息投影技术,其摄制时利用光的干涉原理来记录物体的光波信息,被摄物体在激光辐照下形成漫射式的物光束;另一部分激光作为参考光束射到全息底片上,和物光束叠加产生干涉,把物体光波上各点的位相和振幅转换成在空间上变化的强度,从而利用干涉条纹间的反差和间隔将物体光波的全部信息记录下来,记录着干涉条纹的底片经过显影、定影等处理程序后,便成为一张全息图。

下一步再利用衍射原理再现物体光波信息,利用相干激光照射,通过衍射光波可以生产两个像,即原始像和共轭像,生成的图像立体感强,近乎真实的视觉效应。因为拍摄的全息图记录了完整的物体光学信息,所以理论上再现起图像便能得到原始物体的信息。

现在市面上主流的方案是3D全息透明屏,该种屏幕透明,不受光线的影响,只显示某一特定角度的图像,通过调节透明度来让荧幕只留下要显示的图像,达到全息投影成像的目的。

初音未来全息投影演唱会(图源:Google)

但是这种其实并不是真正的全息投影,还是在荧幕上2.5D播放近乎全息的图像的。真正全息图需要利用脉冲激光,高分辨率光敏材料,通过相干光的干涉图案对空间信息进行编码来记录物体信息。

反射全息图(图源:HoloCenter)

从早期红蓝到现在全息投影,技术的发展日新月异,人们对于视觉的追求也在不断进步,强大的硬件和复杂的软件完美组合定能带来全新的视觉体验。元宇宙的到来就在不远的前方。

THE END
0.非球面镜片原理揭秘:VR佩戴更清晰的秘密Quest3近视眼镜磁吸VR配件OculusQuest3镜片非球面磁吸防蓝光 爆料价¥149优惠前¥179.0 立即购买 非球面镜片是一种表面曲率连续变化的光学镜片,与传统球面镜片相比,它能有效减少像差,让视觉边缘更清晰,减轻眼睛疲劳 。这种设计广泛应用于高端眼镜、相机镜头和VR设备中,尤其适合需要长时间注视近处画面的虚拟现实 jvzquC41lkgoiqz0vcuccx3eqo5hwjsinqibn899976`3;954:j6g?=:77i6996777?g3@>5:5h5
1.从视觉系统的原理入手破解VR眩晕症行业动态但VR头显的观看设计并非如此。在我们佩戴VR头显时,眼睛会始终聚焦在眼前的VR屏幕上,而聚拢过程则由虚拟图像的指向距离和位置来“假装”实现。这会让眼睛感觉很不自然、很不舒服,进而导致眼疲劳和头晕恶心。 解决问题 VR企业正努力解决聚拢调节问题。截至目前,所有尝试都在向我们不断强调,必须从视觉原理层面寻找突破jvzq<84yyy4oopokcj{j0lto1kteg3rjrEd?jwvkerf(ri?5:7
2.对话SuperD总裁:手机看片还要戴3D眼镜就太傻了追踪到人眼的位置后,为什么不戴 3D 眼睛就能看到 3D 效果呢?超多维采用的是液晶透镜显示面板的方案,可以认为它是在普通显示面板内增加了一个液晶透镜层,经过液晶透镜的折射,将显示的左右两幅画面分别投射到用户的左右眼,进而在用户大脑中形成3D图像。(原理参见下图)。 jvzquC41yy}/frfpmgpj0lto1rooilj13:;167mvon
3.深度解读VR中的SeeThrough技术See-Through功能的实现原理 常见的See-Through实现方式主要有两种:光学透视(Optical See-Through, OST)和视频透视(Video See-Through, VST)。 1. 光学透视(OST) 真实世界是通过放置在用户眼前的半透明光学合成器看到的。光学合成器也被用来将计算机生成的图像反射到用户的眼睛里,从而将真实世界和虚拟世界结合起来。 jvzquC41yy}/f6ftvu4dp8ftvkimg8ftvkimghnphq5lg‚4OVK}NlZ}PFGPVPI|6Yxs8‚|ey0nuou
4.聊聊VR技术背后的原理vrar虚拟现实有幸拿到了Pico 3 企业版本和L同学的Oculus Quest 2,在体验之余不妨写一篇杂文来聊聊VR这个看着不新但是又很新的东西。 我想在具体的聊使用体验这些东西之前,先来看看设备的参数,如果有可能的话还想写一些原理的东西。 我觉得对于VR来说,我们想到的,最直观的也就是镜头了,所以先写镜头: jvzquC41yy}/gujehctt0lto1xx03B8359?/j}rn