近期,Adobe研究人员与斯坦福大学团队联合提出了一种名为DMV3D的全新3D生成方法。该方法旨在解决增强现实(AR)、虚拟现实(VR)、机器人技术和游戏等领域中3D资产创建的共同挑战。尽管3D扩散模型在简化复杂的3D资产创建过程方面变得越来越受欢迎,但它们需要访问用于训练的地面真实3D模型或点云,这对于真实图像而言是一项挑战。
现有的解决方案虽然可以解决这一挑战,但通常需要大量手动工作和优化过程。因此,Adobe研究人员与斯坦福大学团队一直致力于使3D生成过程更快、更真实和更通用。他们近期发布的论文介绍了一种新的方法,即DMV3D,这是一种单阶段的、类别不可知的扩散模型。
DMV3D的关键贡献包括使用多视图2D图像扩散模型进行3D生成的开创性单阶段扩散框架。同时,引入了大型重建模型(LRM),这是一种多视图去噪器,可以从嘈杂的多视图图像中重建无噪音的三平面NeRFs。该模型提供了一个通用的概率方法,用于高质量的文本到3D生成和单图像重建,实现了快速的直接模型推理,在单个A100GPU上仅需约30秒。
DMV3D将3D NeRF重建和渲染集成到其去噪器中,创建了一个在没有直接3D监督的情况下训练的2D多视图图像扩散模型。这消除了为潜在空间扩散单独训练3D NeRF编码器的需要,并简化了每个资产的优化过程。研究人员巧妙地使用了围绕物体的四个多视图图像的稀疏集合,有效地描述了一个3D对象,而没有明显的自遮挡问题。
通过利用大型Transformer模型,研究人员解决了稀疏视图3D重建的挑战性任务。基于最近的3D大型重建模型(LRM),他们引入了一种新颖的联合重建和去噪模型,能够处理扩散过程中的各种噪声水平。在大规模合成渲染和真实捕获的数据集上进行训练,DMV3D在单个A100GPU上展示了在约30秒内生成单阶段3D的能力。它在单图像3D重建方面取得了最新的成果。
该研究为通过统一3D重建和生成的2D和3D生成模型的领域之间的鸿沟,以解决3D视觉和图形领域中的各种挑战,提供了新的视角和可能性。