最近,一款优秀的开源声音与音乐生成模型AudioLDM2在 GitHub 上引起了关注。这个模型的运行速度很快,可以生成节奏、音效和基本对话。它操作简单,并具有强大的提示样式鲁棒性。
来自中国科学院自动化研究所、腾讯公司和香港中文大学的研究人士提出了一种名为 Simple Diffusion Adapter (SimDA) 的方法,用于实现高效的文本到视频生成。
PikaLabs 是一款强大的文本转视频平台,它能够根据用户输入的提示词和参考图片,生成具有动态转换和流畅转场的短视频。
最新视频处理算法CoDeF 发布不久就引起网友热议,它能将原视频改变画风但保持其他细节不变。该算法由全华人团队开发,已在 GitHub 上开源。
DragNUWA 是一种基于扩散算法的视频生成模型,DragNUWA 模型旨在解决视频生成中的精细控制问题。该模型通过引入文本、图像和轨迹信息,并从语义、空间和时间角度提供精细控制。
右脑科技(RightBrain AI)宣布Video Studio AI视频创作功能开启内测,支持定制视频模型,一键视频风格切换、特效生成、拖拽式视频创作。
-------------没有了-------------