2024年1月18日,新壹科技宣布其推出的国内首款视频领域生成式人工智能(大语言模型)新壹视频大模型,已通过《生成式人工智能服务管理暂行办法》备案,正式向社会开放服务。
针对视频领域增量学习的困境,字节跳动联合中科院自动化研究所标注了用于域增量学习的美食视频数据集LiveFood,并提出了基于原型学习的解决方案。
1月19日 消息,百度推出的UniVG是一款视频生成模型,其特点在于针对高自由度和低自由度两种任务分别采用不同的生成方式,以更好地平衡两者之间的关系。
Adobe 为视频剪辑软件 Premiere Pro 引入了全新的 AI 驱动音频编辑功能,包括智能音频类别标记、改进的剪辑徽章和效果应用等,旨在解放剪辑师的双手,让他们更专注于创造性工作。
近期,一项名为"Jump Cut Smoothing for Talking Heads"的研究提出了一种创新性的框架,用于在说话头部视频中平滑处理跳切,提升观看体验。
近日,来自华中科技大学、字节跳动和约翰斯·霍普金斯大学的研究人员推出了一款名为GLEE的全新通用物体级别基础模型,为图像和视频分析带来了全新的可能性。
南洋理工大学发布了一项名为FreeInit的方法,该方法可以大幅提高人工智能视频生成的内容一致性。演示显示这一方法非常流畅,并且可以与现有的SD生态结合。
AI视频工具赛道越来越卷,各种升级令人应接不暇,尤其是Gen-2、Pika1.0、Stable Video Diffusion、和Magic Animate,它们正在成为用户最常用的视频生成产品,背后有强大的AI大模型支撑。
腾讯近期发布了一款名为AnimateZero的视频生成模型,据称,该模型的效果比Animatediff要好得多,并且能够更好地兼容现有的SD生态,并采用了社区SD模型进行演示。
谷歌7日凌晨终于发布双子座 Gemini 大模型,声称 MMLU 多任务语言理解数据集测试,Gemini Ultra 不光超越 GPT-4,甚至超越了人类专家。
Runway ML与Getty Images的合作标志着AI视频领域的重要进展。这次合作将开发一个新的生成式AI视频模型,命名为Runway Getty Images Model(RGM),专注于服务好莱坞和广告等视觉媒体行业。
近期,一款名为Call Annie的AI视频聊天应用正变得异常火爆。通过这个应用,用户可以与一个名叫Annie的虚拟女性进行视频通话。
近期,视频生成技术取得了显著的进展,其中PixelDance成为焦点。相较于其他模型如Runway的Gen-2、Meta的Emu Video、Stability.ai的SVD等,PixelDance在生成高度一致性和丰富动态性的视频方面表现出色。
-------------没有了-------------