科技魔方

潞晨Open-Sora技术路线公开,一键生成16秒720p视频,质量更高训练成本更低

更多场景

2024年06月18日

  16秒720p高清视频,现在人人可免费一键生成!

  无论是精致的人物肖像:

  还是炫酷的科幻大片:

  亦或是生动有趣的动画:

  流畅的变焦效果:

  以上生成效果,全部来自免费开源的潞晨Open-Sora。

  从3月发布以来,潞晨Open-Sora一直热度不减,GitHub上揽星已经17.5K。

  (GitHub:https://github.com/hpcaitech/Open-Sora)

  英伟达入股的AI公司Lambda Labs,也基于潞晨Open-Sora模型权重打造了数字乐高宇宙。

  而在公布模型权重和训练细节后,潞晨Open-Sora还在持续开源中。

  最近,其幕后团队在GitHub上晒出了技术路线,进一步披露了最新版本模型的训练核心内容报告地址:https://github.com/hpcaitech/Open-Sora/blob/main/docs/report_03.md。

  具体细节,一起来看。

  训练成本再降低

  最新版本的潞晨Open-Sora在此前基础上引入了视频压缩网络(Video Compression Network)、更优扩散模型算法、更多的可控性,并利用更多数据训练出了1.1B扩散生成模型。

  能在保障模型输出质量的同时,降低计算资源的消耗。

  其中,引入视频压缩网络是OpenAI的Sora同款方法。它能在时间维度上进行4倍压缩,无需抽帧,可以使用原始FPS生成视频。

  考虑到训练一个3D VAE的成本太高,团队尝试让模型重新利用在2D VAE中学习到的知识。在2D VAE压缩后,时间维度上的相邻特征仍然高度相关。

  因此团队提出了一个简单的视频压缩网络(即VAE),它能首先在空间维度上实现8x8倍的压缩,再从时间维度上压缩4倍。

  该网络框架如下:

  具体训练过程分为三步:

  1、前380K步,在8个GPU上训练,冻结2D VAE的权重,只训练3D VAE部分,即对时间维度的压缩重建。训练目标为对2D VAE encoder输出的特征进行时间维度的压缩重建,并添加一个identity loss使得新训练的3D VAE输出的特征尽可能和原始2D VAE的特征相似。团队发现加上这种identity loss可以很快让整个VAE达到良好的压缩重建性能,并在下一阶段收敛速度快很多。

  2、接下来的260K步,移除掉identity loss,继续单独训练3D VAE部分。

  3、最后540K步,由于发现只重建2D VAE特征并不能进一步提升性能,所以解冻了2D VAE权重,开始训练整个VAE模型来重建原始视频。该阶段在24个GPU上完成。

  其中前两个阶段的训练数据使用20%图像和80%视频,视频用17帧进行训练;最后一个阶段用34帧的随机帧数视频进行训练,使VAE模型可以压缩任意长度的视频。训练和推理的代码已开源。

  Rectified flow和模型适配

  另外,基于最新Stable Diffusion3的开源成果,提供了一套完整的训练解决方案。

  Stable Diffusion3通过采用了rectified flow技术替代 DDPM,显著提升了图片和视频生成的质量。

  潞晨Open-Sora团队带来的技术包括:

  简单易用的整流(rectified flow)训练

  用于训练加速的 Logit-norm 时间步长采样

  基于分辨率和视频长度的时间步长采样

  通过这些技术的整合,不仅能够加快模型的训练速度,还能显著减少推理阶段的等待时间,确保用户体验的流畅性。

  此外,这套训练方案还支持在推理过程中输出多种视频宽高比,满足了多样化场景下的视频素材需求,为视频内容创作者提供了更加丰富的创作工具.

  此外,技术报告中还透露了更多模型训练的核心细节,包括数据清洗和调优的使用技巧。同时团队构建了更完善的模型评估体系,保障模型的稳健性和泛化能力。

  通过提供可自行一键部署的Gradio应用,并支持调节输出的运动分数、美学分数和镜头移动方式等参数,还能一键通过GPT-4o 自动修改指令并支持中文输入。

  传送门

  文生视频爆火后,潞晨Open-Sora持续开源为该领域发展做出了贡献。

  潞晨Open-Sora可零门槛免费获得模型权重、全套训练代码,沉浸式游戏、创意广告、制作影视大片……都能来试试~

+1

来源:量子位公众号

延展资讯