1月19日 消息:目前内容产业的数据积累在3D 模型和4D 动画等方面仍较为薄弱。为了满足即将到来的多维沉浸式体验,清华系创业团队生数科技近期联合清华大学、同济大学等高校推出了全球首个基于「骨骼动画」的4D 动画生成框架「AnimatableDreamer」。
这一框架能够直接将2D 视频素材一键转换成动态立体模型,同时支持通过文字输入进行个性化角色生成。简单的说,「AnimatableDreamer」的提出直接打通文本到4D 骨骼动画的生成,建模、贴图、骨骼绑定、动作驱动。输入自然语言描述,自动输出立体动画视频,普通人也能直接上手,轻松定制动画内容。以下为生成的动物模型:
传统的制作立体动画流程需要经过复杂的3D 建模、贴图渲染、骨骼绑定和动画制作等步骤,效率低且成本高昂。而「AnimatableDreamer」可以自动提取视频中目标对象的骨骼动作,并通过文本描述将该对象转换为任意的带骨骼动画模型。这一过程不受模版限制,支持任意视频长度和任意类型的动作,并且导出的动态立体模型能够在任意3D 环境中进行渲染。
该团队创新地提出了规范得分蒸馏策略(Canonical Score Distillation,简称 CSD),实现了文本到4D 骨骼动画的生成。通过在相机空间中对不同帧及不同视角的3D 模型进行渲染和降噪,并将梯度回传至规范空间中进行蒸馏,「AnimatableDreamer」能够生成具有高度时间一致性和几何合理性的模型。无论是在有限视角还是大幅度运动的场景中,该框架都能自动补全画面信息,实现较好的生成质量。
「AnimatableDreamer」的推出将大大降低3D、4D 数字内容的生产难度,丰富交互体验,并让每个人都能够进行创意内容的生成和编辑。未来,用户可以在虚拟世界中快速搭建自定义的数字空间,打造个性化的交互体验。而对于游戏开发和影视动画等领域的3D 建模和动画制作流程来说,这一技术有望带来更高的效率。
清华系创业团队生数科技在不到一年的时间里推出了多个产品,包括3D 资产创建工具 VoxCraft 和4D 骨骼动画生成框架「AnimatableDreamer」。这些技术的创新能力将为未来的多维数字体验和人机交互带来更多可能性,从而开启全新的内容娱乐与消费模式。