视频生成

昆仑万维开源SkyReels-V3多模态AI视频模型,赋能虚拟网红与电商创作

昆仑万维旗下Skywork AI团队开源了新一代多模态视频生成模型SkyReels-V3,该模型集参考图像转视频、视频智能延长和音频驱动虚拟形象三大核心功能于一体,能够高效生成高质量、高保真的动态视频内容。此次开源旨在降低虚拟IP创建和电商视频制作的门槛,赋能广大创作者。文章详细介绍了模型的功能演示、技术原理,并分析了其开源策略背后AI视频生成领域的竞争格局与昆仑万维的技术积累。

开源音视频模型MOVA发布:打破闭源垄断,实现精准音画同步

上海创智学院OpenMOSS团队与模思智能联合发布了中国首个高性能开源端到端音视频生成模型MOVA。该模型能生成长达8秒、720p分辨率的视听片段,在电影级口型同步、物理环境音效仿真方面表现卓越。尤为重要的是,在Sora、Veo等顶尖技术普遍闭源的背景下,MOVA选择全栈开源,提供了模型权重、训练及推理代码。其采用异构双塔架构与创新的跨模态对齐技术,并通过三阶段训练策略确保质量。MOVA的发布不仅打破了闭源垄断,为开发者社区提供了强大的工具,也是产教融合培养顶尖AI人才的一次成功实践。

AI视频生成技术:实时换脸与角色替换如何颠覆影视制作与身份真实性

本文探讨了AI视频生成技术,特别是实时换脸与角色替换功能的最新进展及其深远影响。技术已能实现高保真、无缝的角色互换,大幅降低影视制作成本与门槛,同时催生了虚拟网红等新形态。然而,其逼真度也引发了关于深度伪造、身份诈骗与社会信任的广泛担忧。文章以Kling Motion Control等工具为例,展示了技术如何让普通用户也能复刻经典电影场景或一人分饰多角,预示着创意表达方式与内容生产流程的彻底变革。

阿里云万相大模型赋能AIGC大赛,AI视频生成创新融入米兰冬奥历史

阿里云联合国际奥委会及米兰冬奥组委会,发起全球AIGC创意大赛“YOUR EPIC VIBE”,邀请公众使用其万相大模型(Wan2.6)为2026年米兰冬奥会创作视频。优秀作品将被奥林匹克博物馆收藏,标志着AI首次以集体创作形式写入奥运史。文章深入分析了Wan2.6在超真实还原、连贯多镜头叙事和完整逻辑生成方面的技术突破,并阐述了该赛事如何成为“AI for All”理念的实践,通过技术普惠让普通人能以创作者身份深度参与奥运盛事。

张吕敏团队突破AI长视频生成:ControlNet记忆压缩技术解决画面一致性难题

张吕敏团队提出了一项突破性的AI长视频生成技术,通过创新的记忆压缩系统解决了画面一致性与算力成本的矛盾。该技术采用两阶段策略,预训练一个能保留任意时间点高频细节的压缩模型,再将其作为记忆编码器集成到视频生成系统中。实验表明,该方法可将20秒视频压缩至约5k token,用消费级显卡实现长时、连贯、高保真的视频生成,在多项评估指标上表现优异。

CineCtrl:首个统一控制视频运镜与摄影效果的AI模型,打造电影级生成视频

CineCtrl是由华中科技大学、南洋理工大学、商汤科技和上海人工智能实验室联合推出的首个统一控制视频运镜与摄影效果的AI模型。它通过创新的解耦交叉注意力机制,解决了多控制信号耦合的难题,能够对相机运动轨迹和光圈、焦距、曝光、色温等专业摄影参数进行独立、精细的协同控制。该模型结合物理模拟与真实数据构建了大规模训练集,实验证明其在效果控制精度和视频质量上均领先于现有方法,为普通视频赋予电影级美学质感,在影视制作与AR/VR内容生成领域具有广阔应用前景。

迪士尼联手OpenAI:10亿美元投资Sora,200+IP授权开启AI内容新纪元

迪士尼宣布向OpenAI投资10亿美元并达成三年战略合作,授权Sora使用其旗下超过200个经典IP角色用于生成短视频。此举标志着娱乐巨头从对抗AI转向合作共赢,旨在拥抱新一代用户、提升内部生产力并激活UGC生态。然而,合作也引发对品牌形象稀释、内容失控及AI生成内容质量问题的广泛担忧,揭示了AI时代内容产业在创新机遇与风险管控之间的深刻矛盾。

香港大学开源ViMax框架:多智能体协同实现AI全流程自动化视频制作

香港大学黄超教授团队开源的ViMax框架,通过多智能体协同实现了AI全流程自动化视频制作。该框架将影视制作分解为剧本创作、分镜规划、视觉生成、质量把控和统筹协调五个阶段,由专门的AI智能体负责。ViMax创新性地采用三层递归规划体系应对长视频叙事复杂度,并利用图网络和RAG技术解决跨镜头视觉一致性与上下文碎片化难题。这一体系标志着AI视频生成从‘片段生成’到‘系统化创作’的重要转变,为未来自动化创作工具的发展提供了新思路。