文|白 鸽
编|王一粟
“生成的人物一转身就变成老外,怎么解决呢?”
“没有办法,10s中动作大的,人物一致性有问题,只能抽卡,多刷几个,选择一个变化不大的。”
在一个以Ruanway学院为主题的群中,不断有各种针对AI视频生成的问题产生,而群内有AI视频生成使用经验的,则也在积极分享自己的使用方法论,并解答相关问题。
这样的AI视频生成相关的群聊并不在少数,且每个群都相当活跃,大部分用户对AI视频生成工具都保持了相当高的兴趣,并在各种平台上分享自己基于AI视频生成工具所创造出的视频内容。
国内用户积极对AI视频生成工具探索和使用的背后,是今年2月份Sora的发布,作为行业发展风向标,彻底引爆了国内AI视频大模型生成赛道。
3月字节跳动旗下剪映Dreamina(即梦)开放内测;4月,AI企业生数科技发布号称首个国产自研视频生成大模型Vidu;6月,快手可灵AI正式开放内测。
7月,商汤推出最新AI视频模型 Vimi,阿里达摩院也发布AI视频创作平台“寻光”,爱诗科技则发布PixVerse V2,快手可灵宣布基础模型再次升级,并全面开放内测,而智谱AI也宣布AI生成视频模型清影(Ying)正式上线智谱清言。
同时,这些AI视频大模型生成工具大部分都已经向公众开放使用。7月30日,生数科技的AI视频大模型Vidu也正式面向全球公众开放使用。
历经大半年,国内大模型赛道终于进入Sora时刻。从AI跳舞、火柴人,到5秒~16秒的高质量视频生成,AI视频大模型的生成能力整体都迈入了下一个阶段。
不过,相比于至今仍未开放的Sora,中国的AI视频大模型已然开启加速模式。在技术能力不断迭代升级的同时,还在持续进行技术应用和商业化落地探索。
事实上,相比于ChatGPT等聊天机器人,AI视频生成大模型作为一个具有工具属性的产品,天然就具备商业化变现能力,现阶段开放给公众使用的AI视频生成工具也皆采用付费模式。
如智谱清影上线的定价策略是:首发测试期间,所有用户均可免费使用;付费5元,解锁一天(24小时)的高速通道权益,付费199元,解锁一年的付费高速通道权益。
不过,当前AI视频生成赛道的商业化仍处于非常早期阶段。
“说实话,我们也不知道未来商业策略会是什么样,或什么形式最好,目前所谓的收费策略更多是一种早期尝试,试试看市场和用户反馈,后面会及时调整。”智谱AI CEO张鹏如此说道。
AIGC智能创意平台筷子科技创始人兼CEO陈万锋也表示:“目前C端用户基于AI视频大模型平台开发出的视频应用指向型不强,这些平台也并不知道C端用户将会如何使用这些视频。”
从技术的迭代更新,到探寻技术的应用和商业化变现,国内AI视频生成赛道玩家们无疑是在加足马力狂奔。但从当前行业现状来说,却也仍存在诸多挑战。AI视频军备竞赛,都在“卷”什么
用AI生成视频,并不是新物种,只不过此前AI视频生成的时长一直卡在2s-4s,且整体视频生成效果体验并不足够令人惊艳。
Sora一发布,则直接展示了其生成的1分钟视频,且其视频所展示的画面效果惊人,就算在视频动态运动情况下,随着空间的移动和旋转,视频中出现的人物和物体也会保持场景一致性移动。
这可以说震惊了整个AI届。Sora背后的技术架构,也被业界所了解并跟进。
此前AI视频生成的技术路线主要有2大类:
一类是Diffusion Model(扩散模型技术路线),主要玩家包括Runway、Pika Labs等。
一类是基于Transformer架构的大语言模型生成视频技术路线。
去年12月底,谷歌发布了基于大语言模型的生成式AI视频模型VideoPoet,这在当时被视为生成视频领域中,扩散模型之外的另外一种解法和出路。
Diffusion Model将一张图片通过引入噪声使其变成原始马赛克,在通过引入“神经网络”,如基于卷积神经网络(CNN)的UNet结构,从某个时间点的画面,减去预测的噪音,得到的就是最原始没有噪音的画面,也就是最终生成的画面。
大语言模型则是通过视频数据来对大模型进行训练,使其能够理解视频数据中的基本Token词汇以及所对应的视频画面。当用户给予指令词之后,其就能够根据学习到的Token词汇生成对应的视频内容。
两种技术路线都存在各自的优劣势,单一模型所生成的视频在时长和画面效果上,都难以实现根本性突破。Sora则选择了将扩散模型和Transformer模型结合的技术架构体系-DiT(Diffusion + Transformer )架构。
有业内观点认为,Sora是将Diffusion扩散模型中的U-Net架构替换成了Transformer架构。
两者的结合效果,一个AI从业者形象的解释为:扩散模型就像是一个雕塑过程,将石料上不应该存在的部分去掉,创造出雕塑作品。而Transformer通过自注意力机制,理解时间线之间的关联,则让这尊雕塑从石座上走了下来。
AIGC创业者洋芋酱AIgen(艺名)也认为:“视频是一帧一帧的图像,采用UNet结构的逻辑是按照生产图像的方式做视频,AI每生成一张图像都是随机的,所以整个画面看起来很闪。而用视频训练的AI,其产出的画面就相对稳定,不会狂闪,具有合理的连续的帧。”
因此,Sora发布之后,DiT技术架构也成AI视频玩家的主流技术架构,并将其视为通往AGI的关键技术。
目前,市面上主流AI视频工具在生成4秒-10s左右的视频片段。
生数科技此次Vidu开放文生视频、图生视频两个功能,提供4s和8s两种时长选择,分辨率最高达1080P。在速度上,生成一段4秒片段的实测推理速度只需30秒。
爱诗科技的PixVerse V2,可支持生成单个时长8s的片段,且支持一键生成1-5段连续的视频内容,片段之间也会自动保持主体形象、画面风格和场景元素的一致性。
智谱AI的智谱清影可生成6秒的视频,时间只要30秒左右,清晰度可达1440x960(3:2)。
快手可灵生成的视频时长在5s,但其有将视频时长延长的功能,可以将视频时长延长至10s,但在生成视频的速度上,却相对较慢,往往需要2-3分钟时间。
从技术的积累上来看,虽然都在布局DiT架构,但国内AI视频生成企业还处于追赶阶段,AI视频生成的时长和效果,尚未达到Sora的水平。
张鹏也坦言:“Sora的演示效果不错,我们还是一个初步的阶段性成果,达不到像Sora演示出来那么好、那么长的视频。我们从来都很坦诚承认与OpenAI、和世界顶级水平之间的差距。”
但国产大模型也在坚持用自己的方式追赶OpenAI,比如“怎么把视频生成算力成本降下来,响应速度提升上去,我们在追求技术高度的同时,也同步追求技术的可普及性和成本。”张鹏说。
无疑,技术上国内AI视频大模型赛道玩家还在追赶,但在应用和商业化上却已然走在前列。 图生视频成主流,不稳定、一致性仍是问题
在技术架构升级之后,现如今的AI视频生成的视频效果与时长,已经与年初有了本质的区别。
当前,各AI视频大模型产品主要提供2大核心能力,一个是文生视频,一个是图生视频。两个核心功能的工作流并不一致,文生视频可通过一句指令生成一个想要的视频。
而图生视频的工作流更为复杂,要先用文字指令词通过Midjourney或Stable Diffusion等工具生成自己想要的图片,再基于图片通过AI视频生成工具生成视频内容。
于普通的业务爱好者而言,想要体验AI视频生成效果,文生视频功能已经够用。
但对于想要基于此进行视频内容商业化交付的从业者而言,“基本上,没有人用文生视频。”星贤文化创始人、AI原创玄幻IP《山海奇镜》制作人陈坤对光锥智能说道。
对此,陈坤解释到,文生视频无法保持前后内容的一致性。就单个镜头来说,文生视频可以满足要求,会很好看,很惊喜,但却无法保证下一个镜头与前一个镜头的一致性。毕竟AI技术尚不能通过一段文字描述就能够让人物和空间美学保持一致性。
“为了保持作品风格的一致性或者人物的一致性,必须用图生视频控制住画面里的内容。”洋芋酱AIgen也如此说道。
去年12月,陈坤带领团队利用 PixVerse 制作《山海奇镜之劈波斩浪》的4K分辨率预告片。
今年7月13日,陈坤基于快手可灵大模型重新打磨的《山海奇镜之劈波斩浪》正式上线快手平台,19日单日播放量达到了2026.7万,上线十天累计播放量达到了5164.9万,后续荣登德塔文短剧指数榜第一。
在陈坤看来:“半年前,AI影视很难用生动的表演表现复杂叙事,很多的动作场面也需要通过蒙太奇的剪辑来实现,在制作过程中,由于3—4秒的单个镜头时长限制(在当时就是这个时长),整个片子的节奏感会受到影响。”
“就AI影视赛道来看,可灵的能力确实很厉害,既有文生视频,也有图生视频,且其画面中的动作幅度展示都很不错。”陈坤如此说道,“不过,每家AI视频生成工具都有自己的特点,比如Runway,它的Gen3镜头偏电影感,尽管之前只有文生视频功能,但很多创作者也很喜欢用。现在它也推出了图生视频功能”
作为一个资深玩家,洋芋酱AIgen也认为:“目前最好用的是可灵、luma 和Runway。”另一位影视从业者琪琪(化名)则表示,Sora的整体效果应该最好,但其并未开放。
不过,在实际的体验过程中,虽然现阶段相比于半年前在视频时长和效果上有了质的飞跃,但仍存在画面人物变形、画面不稳定以及前后不一致性等问题。
总结下来,从业者在使用AI视频时,主要有5大痛点:包括人物一致性,场景一致性,人物表演,动作交互,运动幅度等。
“由于大模型技术并不完善,在视频生成过程中画面不可避免的产生畸变。”陈坤称。
对此,行业从业者就会通过不停“抽卡”(让AI不断自主随机生成相关画面)的方式,最终得到一个相对满意的效果画面。
“即便我们用可灵,在一个火神和水神打架的镜头上,还‘抽卡’不下100次,但也并未抽到我特别满意的镜头,后来实际用的画面其实也是带了一定畸变的。”陈坤说道。
从现阶段的技术手段来看,短期内可能无法解决这一问题。张鹏认为:“最简单的可控,就是我说什么模型做什么,而想要实现这一可控,强烈依赖于模型能不能够理解这个内容,而这也是多模态大模型发展的初衷。”
用发展中的技术去解决发展中的问题,将是AI视频大模型未来发展迭代升级的关键。“内容生成,尤其是视频内容生成,绝大部分情况下还是由‘人用语言描述’的方式来控制。从自然语言到视频生成,这才是真正的可控,更高层面的可控,这是技术层面的事情。”张鹏如此说道。
现阶段AI视频大模型技术仍处于比较早期阶段,并未有任何一家AI视频生成工具爬到了山顶。而在各家攀登山顶的过程中,生态体系的建设以及商业化变现也成为关键。 黄金赛道的起点
“技术应用到行业的速度,远慢于技术自身的发展。”陈万锋如此说道,“AI技术发展很快,但渗透到产业中,产生价值的速度可能要慢十倍。”
纯技术路线发展的角度来看,从单模态,到多模态,最终的目标是达成AGI。但将AI进行产业化落地应用,与技术升级迭代是两码事。
现阶段,国内众多大模型公司的技术追赶已经过了一个阶段,将会把更多的精力聚焦在落地和应用上,通过与场景的结合,数据的反馈,再推进底层技术迭代升级。
而相比于ChatGPT这种聊天机器工具,AI视频生成则是大模型技术商业化落地的黄金赛道。
之所以说其是黄金赛道,主要基于两个方面:
一个是作为AI视频生成工具,其天然具有收费优势。
目前大多数AI视频生成工具,面向C端用户采用的是会员体系。以可灵为例,其目前会员共分为黄金、铂金、钻石三个类别,优惠后三档月卡的价格分别为33元、133元和333元,对应分别获得660、3000 、8000“灵感值”,可生成约66个、300个或800个标准视频。
面向B端企业级用户,则可以支持通过调用API的方式进行收费。如智谱AI,其除了会员制收费方式外,还在开放平台开放了API,收入一定的费用。
另外一个方面,AI视频生成工具让创作者和消费者之间的界限变得模糊,尤其是快手和抖音平台上,这些视频博主属于C端消费者,但其又可以基于AI视频工具进行视频创作,变成B端视频生产方。光锥智能认为,“大C小B的消费者是很重要的,甚至可能是最重要的,ToB和ToC的界限越来越模糊。”
不过,从商业化生态角度来讲,大厂和创企在变现的思路上也并不一致。
像抖音、快手这种已经行业头部视频平台,其可以依托自身海量的用户,通过提供AI视频生成工具,让用户通过这一工具创作相关内容,丰富自己视频生态体系。
“大厂不需要卖工具,而是通过用户进行商业化变现。”陈万锋如此说道,“C端为应用付费模式(对创业公司来讲)在国内并不现实,未来或许只有巨头才有机会,因为其用户数量庞大。”
与此同时,对于现阶段各平台采取的会员制收费方式,陈坤坚定地对光锥智能表示:“我不看好这个会员制,现在即便再便宜,也只对真正能够商业化闭环的创作者有效。如果不是一个商业化闭环的创作者,后续的付费率和付费意愿都不会很高。”
陈坤对此解释道,一方面C端收取的会员制费用相对于大厂研发九牛一毛,都不够大模型训练一次。另一方面,一旦AI视频大模型技术达到天花板,这些巨头一定会进行价格战,目的就是为了抢夺用户数量,“大厂最终一定会选择用户数量,而不是去赚这些钱。”
因此,于大模型创企来说,如果单纯的是卖工具,“在中国只能ToB不能ToC。”陈坤如此说道,“而只有面向企业端,才是能够商业化变现的唯一方式。”
而企业端愿意为其付费的原因,则在于其能够实现视频的商业化交付,产生营收,能够支持其对应的成本支出。
比如陈坤通过AI短剧进行商业变现,洋芋酱AIgen则会根据客户的视频内容需求,为客户制作AI视频内容,“最高一个月能接8单客户需求,平均每个月有3-4单。”
而筷子科技,是通过AI视频的生产工作流和短视频平台的投放结合,来赚品牌的应用工具及服务的钱。
基于此,不难看出,在AI视频的商业化中,C端还是巨头会更成功,创业者的机会则在B端。面向未来,快手视觉生成与互动中心负责人万鹏飞也表示,随着大模型技术能力的提升,视频创作者和消费者的界限逐渐模糊,促进视频平台生态繁荣。