科技魔方

腾讯混元发布并开源图生视频模型 上线对口型与动作驱动等玩法

更多动态

2025年03月07日

  据腾讯混元官方公众号消息,腾讯混元发布图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及2K高质量视频。

  根据官方介绍,基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按要求让图片动起来,变成5秒的短视频,还能自动配上背景音效。

  此外,上传一张人物图片,并输入希望“对口型”的文字或音频,图片中的人物即可“说话”或“唱歌”;使用“动作驱动”能力,还能一键生成同款跳舞视频。

  目前用户可以通过混元AI视频官网体验,企业和开发者可在腾讯云申请使用API接口使用。

  此次开源的图生视频模型,是混元文生视频模型开源工作的延续,模型总参数量保持 130 亿,模型适用于多种类型的角色和场景,包括写实视频制作、动漫角色甚至CGI角色制作的生成。

  开源内容包含权重、推理代码和LoRA训练代码,支持开发者基于混元训练专属LoRA等衍生模型。目前可以在Github、HuggingFace等主流开发者社区下载体验。(周小白)

+1

来源:TechWeb

延展资讯