Wan2.2更新记录
2025年9月19日: 💃 我们推出了**Wan2.2-Animate-14B**,这是一个统一的角色动画和替换模型,具有整体动作和表情复制功能。我们发布了模型权重和推理代码。现在您可以在wan.video、modelscope Studio或HuggingFace Space上尝试它!
2025年8月26日: 🎵 我们推出了**Wan2.2-S2V-14B**,这是一个音频驱动的电影视频生成模型,包括推理代码、模型权重和技术报告!现在您可以在wan.video、ModelScope Gradio或HuggingFace Gradio上尝试它!
2025年7月28日: 👋 我们已经使用TI2V-5B模型开放了一个HF空间。敬请享受!
2025年7月28日: 👋 Wan2.2 已被集成到ComfyUI中(中文版 | 英文版)。尽情享受吧!
2025年7月28日: 👋 Wan2.2 的 T2V、I2V 和 TI2V 已经被集成到了Diffusers中(T2V-A14B | I2V-A14B | TI2V-5B)。欢迎您来试用!
2025年7月28日: 👋 我们已经发布了Wan2.2的推理代码和模型权重。
2025年9月5日: 👋 我们为语音到视频生成任务添加了CosyVoice支持的文本转语音合成。
一、Wan2.2-Animate介绍
9月19日,阿里通义万相团队正式开源其最新动作生成模型Wan2.2-Animate。该模型具备驱动人物、动漫形象及动物照片生成动态视频的能力,可广泛应用于短视频创作、舞蹈模板生成、动画制作等多个领域。Wan2.2-Animate在先前开源的Animate Anyone模型基础上实现全面升级,在人物一致性、画面生成质量等关键指标上均有显著提升,并首次支持动作模仿与角色扮演两种模式。在动作模仿模式下,用户只需提供一张角色图片和一段参考视频,模型即可将视频中人物的动作与表情精准迁移到静态图像角色上,赋予其生动的动态表现。在角色扮演模式中,模型能够在保留原始视频动作、表情及背景环境的前提下,将其中的角色替换为指定图片中的形象,实现自然融合。
角色一致性 + 720P 高清,角色替换 / 动作模仿一键搞定
通义万相团队构建了一个涵盖说话内容、面部表情与身体动作的大规模人物视频数据集,并基于自研的图生视频模型进行后训练优化。Wan2.2-Animate通过统一表征方式,将角色特征、场景信息与动作数据整合至单一模型中,从而支持双模式推理。针对身体运动与面部表情的不同特性,模型分别采用骨骼信号与隐式特征进行建模,并结合动作重定向模块,实现对复杂动作与细腻表情的高精度复现。在角色替换场景中,团队还引入独立设计的光照融合lora模块,有效保障角色与新环境之间的光照一致性。
-
性能再现:精确复现人物表演,保持原始动作和表情的准确性。 -
跨风格迁移:将真人表演迁移到各种角色,实现风格转换。 -
复杂动作合成:复制舞蹈动作等特殊动作,保持动作的流畅性和准确性。 -
动态摄像机运动:生成包含摄像机运动的角色动作,增强视觉效果。 -
角色替换:电影场景重想象、商业摄影广告编辑,实现创意内容创作。
二、相关安装
模型和工作流文末网盘下载!
首先更新KJ的插件:https://github.com/kijai/ComfyUI-WanVideoWrapper
模型下载:
-
Wan2_2-Animate-14B_fp8_e4m3fn_scaled_KJ.safetensors: 存放路径: /ComfyUI/models/diffusion_models
-
WanAnimate_relight_lora:存放路径: /ComfyUI/models/loras
wan2.2历史模型
模型 | 下载链接 | 说明 |
---|---|---|
T2V-A14B | 🤗 Huggingface | 文本到视频的MoE模型,支持480P & 720P |
I2V-A14B | 🤗 Huggingface | 图像到视频的MoE模型,支持480P & 720P |
TI2V-5B | 🤗 Huggingface | 高压缩VAE,T2V+I2V,支持720P |
S2V-14B | 🤗 Huggingface | 语音到视频模型,支持480P & 720P |
Animate-14B | 🤗 Huggingface | 角色动画和替换 |
模型路径:
ComfyUI/
├───📂 models/
│ ├───📂 diffusion_models/
│ │ ├─── Wan2_2-Animate-14B_fp8_e5m2_scaled_KJ.safetensors
│ ├───📂 text_encoders/
│ │ └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors
│ └───📂 vae/
│ └── wan_2.1_vae.safetensors
│ ├───📂 loras/
│ │ ├─── Wan2.2-Fun-A14B-InP-low-noise-HPS2.1.safetensors
三、测评体验
四、总结
以上Wan最新的视频模型Wan2.2-Animate的介绍了,这个模型专注主体替换以及姿势参考,效果会比VAVE更好一些,后面等我挖掘出更多的商业化落地功能。