科技魔方

伯恩茅斯大学介绍在全息显示器中实现逼真反射和折射的新方法

AR/VR

2021年10月25日

  在日前举行的SIGGRAPH 2021大会中,VividQ和伯恩茅斯大学大学组成的团队介绍了一种在全息显示器中实现逼真反射和折射的新方法。同时,这个名为“Enabling Reflective and Refractive Depth Representation in Computer-Generated Holography(在计算机生成全息图中实现反射和折射深度再现)”的Poster口头学术报告在ACM SIGGRAPH Student Research Competition学生研究竞赛中赢得了Graduate Awards第一名。

  全息显示器的多深度渲染

  反射和折射对于数字场景的逼真表现非常重要。计算机生成全息图(Computer-Generated Holography;CGH)通过光的衍射和干涉来再现3D对象和场景。通过“工程控制”光线,CGH显示器能够以人眼分辨率有效再现我们自然感知周围环境的方式。

  不过,渲染完整的“原生”全息图会产生一个重要的计算问题,而且着色器/光传输技术方面尚不够先进,用于全息显示的现有图像渲染方法会每像素使用一个深度值,难以支持具有反射或折射特性的场景,如镜子、水面、窗户或玻璃。所以,这种技术的视觉效果与现代渲染器的水平相去甚远。

  由VividQ资助的研究生团队朝这个方向进行了探索,并尝试结合现代渲染器的优点来快速渲染全息图。研究指出,一种解决方案是为所述场景渲染多个焦距深度。在SIGGRAPH大会,团队提出了全息合成的概念。

  通过使用基于depth sliced/image-layer的CGH和一系列其他技巧,我们可以切掉大量的角点,并更快地提供相同体验的近似值。这正是VividQ擅长的地方。通过将现有光追或光栅化渲染器中的RGBZ(颜色+深度)图像输入全息图生成套件,并将其划分为离散层,你可以快速计算全息图。

  但是,仅拥有RGBZ数据远远不足以表示场景中对象的真实深度,如对象具有反射(镜子)或折射(玻璃、水)等材质属性的场景。

  解决方案是从渲染器中获取额外的深度数据,并结合一个看起来非常类似于视觉效果合成的工作流程。不过,这个合成流程不是用于2D,而是作用于全息图。通过独立生成渲染器的每个反射/折射元素,可以在最终全息图中为每个元素指定正确的深度信息。其结果是能够显示具有真实材质(包括焦点特性)的对象。

  简单来说,现有渲染器利用具有相关深度 channel的渲染通道来生成独立全息图,并在傅里叶空间中合成以形成单个全息图。当浏览时,所述全息图能够用正确的散焦来表示原始场景。

  所述方法允许渲染器在全息图生成过程中提供更多数据,并生成具有反射或折射特性的逼真全息图像通过这种方式,全息显示器可以产生具有真实反射的镜子投影、栩栩如生的鱼缸、或通过窗户显示的全三维场景。

  团队表示,未来的研究方向将包括将所述方法应用于由VividQ SDK驱动的实时全息显示器,并在增强现实设备、车载平视显示器和大型全息显示墙中实现应用。

+1

来源:映维网

推荐文章