一、KJ版Wan2.2介绍
Wan2.2 此次开源的文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B,均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善。之前一直分享的是Wan2.2官方版本的工作流,KJ这边的其实也已经同步支持了,今天就来分享下KJ版本的Wan2.2的工作流,听说会比官版的消耗更低的显存,效果更好。我们跟了教程详细看看。
Wan 2.2 相对于 Wan 2.1 有以下升级
整体提升: 抽卡成功率提升,画面美感提升,提示词遵循提升,生成速度提升
·文生视频
- 大幅度复杂动态:复杂动态更稳定自然真实,破碎减少,支持复杂镜头运动变化
- 影视级画面控制:画面质感更真实自然,支持对画面精细化控制,包含光效、景别、运镜、构图等
- 物理世界还原:更强大的语义控制与指令遵循能力,在多目标生成和空间位置准确性上显著提升
·图生视频
- 提升抽卡成功率:优化动作稳定性,减少不规则运镜晃动,去除画面变暗和字幕乱码问题
- 镜头控制:支持固定镜头控制,支持常见运镜
- 一致性优化:对画面中的人像、商品、文字等一致性提升,风格化品类保持性提升
- 性能优化:从目前2.1 约6分钟加速至1分钟,480P 20秒级别
二、相关安装(文末附带模型工作流)
插件还是之前的ComfyUI-WanVideoWrapper,直接升级下即可支持最新的Wan2.2
插件地址:https://github.com/kijai/ComfyUI-WanVideoWrapper(文末网盘附带完整模型)
常用模型就下面这4个,已经同步到网盘,大家自取便可。
umt5_xxl-enc CLIP模型和VAE模型都用Wan 2.1的。
三、测评体验
文生视频:【KJ版】Wan2.2 14B加速文生视频
这边工作流分成了几个模块,把核心给大家介绍下
- 模型加载:高低噪模型的加载,以及lightx2v lora的加载,高噪模型的lightx2v设置的是3,其他的都和之前差不多。
- 提示词词处理:自己写的提示词+这个提示词助手选择的词 扩写的话就是把上面这2个组合的词拿去智能扩写。
- 采样过程:采样的话也分成了两次,高低噪两次采样,我们这里采用了8步采样,前4后4的方式。
- 入参设置:入参这里设置宽高以及视频时长,最后就是提示词的选择,1表示自定义,2表示智能扩写。这次跑的是16帧,速度会快很多。
图生视频:【KJ版】Wan2.2加速图生视频
图生视频我感觉会比官方的好,案例里面对比这边也是分了几个模块,一起展开说说
- 基础模型加载:“参考文生图”
- 提示词封装:文生视频是把图片反推,这里给出的扩写提示词更加的精准
- 采样过程:采样过程同样用的是8步采样,前4后4组合,其实6步也可以,步数越少,视频生成速度越快。
- 参数设置:加载视频、然后设置最长边,设置视频时长,最后就是提示词设置,同样包含自定义以及智能扩写。
四、总结
以上就是最新发布的Wan2.2的KJ版的体验分享了,个人更喜欢KJ版的,占用显存确实比官版的低了,后续的功能KJ支持的更快,大家玩起来吧。
技术的迭代是飞快的,要关注最新的消息才不会掉队。