通义万相正式开源Wan2.2-Animate动作生成模型
9 月 19 日,阿里云通义万相宣布全新动作生成模型 Wan2.2-Animate 开源,给短视频、舞蹈创作、动漫制作等领域的创作者带来了新工具。
作为此前开源的 Animate Anyone 模型的升级版本,Wan2.2-Animate 在人物动作一致性、动态生成质量上有明显提升,主要支持两种实用功能:一是 “角色模仿”,上传角色图片和参考视频,就能让图片角色复刻视频里的动作与表情;二是 “角色扮演”,能保留原视频的动作、表情和场景,同时替换成目标角色,为创作提供更多可能性。
从实测来看,该模型在视频生成质量、主体一致性等关键指标上,表现优于 StableAnimator、LivePortrait 等开源模型,在人类主观评测中,甚至超过了 Runway Act-two 这类闭源模型。目前,大家可在 Github、HuggingFace、魔搭社区下载模型与代码,也能通过阿里云百炼平台调用 API,或直接在通义万相官网体验。对相关行业来说,这个开源模型或许能降低动态内容制作的门槛,为后续创意作品的产出提供助力。
模型性能
Wan2.2-Animate模型基于此前通义万相开源的Animate Anyone模型全面升级,不仅在人物一致性、生成质量等指标上大幅提升,还同时支持动作模仿和角色扮演两种模式:
角色模仿:输入一张角色图片和一段参考视频,可将视频角色的动作、表情迁移到图片角色中,赋予图片角色动态表现力;
角色扮演:同时还可在保留原始视频的动作、表情及环境的基础上,将视频中的角色替换为图片中的角色。
模型训练
此次,通义万相团队构建了一个涵盖说话、面部表情和身体动作的大规模人物视频数据集,并基于通义万相图生视频模型进行后训练。
Wan2.2-Animate将角色信息、环境信息和动作等,规范到一种统一的表示格式,实现了单一模型同时兼容两种推理模式;针对身体运动和脸部表情,分别使用骨骼信号和隐式特征,配合动作重定向模块,实现动作和表情的精准复刻。在替换模式中,团队还设计了一个独立的光照融合LoRA,用于保证完美的光照融合效果。
实测结果显示,Wan2.2-Animate在视频生成质量、主体一致性和感知损失等关键指标上,超越了StableAnimator、LivePortrait等开源模型,是目前性能最强的动作生成模型,在人类主观评测中,Wan2.2-Animate甚至超越了以 Runway Act-two代表的闭源模型。
生成效果展示
模型下载
GitHub:https://github.com/Wan-Video/Wan2.2
魔搭社区:https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B
HuggingFace:https://huggingface.co/Wan-AI/Wan2.2-Animate-14B
体验网址:https://create.wan.video/explore