一、Wan2.1生图
今天分享一个Wan模型非常奇特的一个用途,用来做图生图的工具,Wan降维打击生图生图提升画质,处理完后,震惊我了,画质提升非常多,效果也太好了。wan2.1视频模型生图即设置进生成其中一帧图像方案。由于wan2.1底膜来自视频数据集训练,因此具有更多和更高质量的数据集,同时生成人物和景色也会更加写实,并且自带图像肢体修复-修手(因为wan2.1底膜具有优秀的人体剖析结构)。
另外,已经将最新的工作流均改成kijai大佬最新发布的lightx2v-v2 rank 128版本lora模型,该版本已包含全套的T2V和I2Vlora模型(文末网盘获取),将具有更多的细节增强。
感兴趣读者可参考文末工作流原理:
二、模型与环境安装
本文使用ComfyUI本体工作流体验。模型和工作流文末网盘下载!
-
仅需更新ComfyUI本体到最新即可,另外也可以使用GGUF模型。 -
ComfyUI-WanVideoWrapper: 当然也可以使用KJ版工作流。https://github.com/kijai/ComfyUI-WanVideoWrapper -
模型可文末网盘获取,参考wan2.1视频模型:ComfyUI安装阿里Wan2.1AI视频生成模型保姆级教程
lora下载:lightx2v
下载后放
comfyUI/models/lora
中即可使用方法:
直接在KJ版本的wan2.1视频生成工作流中接入LORA。
加速技巧:
采样器中的参数设置,4步,CFG
三、文章总结
关于wan2.1视频模型生图使用技巧总结如下:
-
wan2.1视频模型生图由于拥有大量高质量视频数据集训练,出图具有更好的写实图像质量。由于wan2.1底膜具有优秀的人体肢体剖析,因此wan2.1图像生成,也能很好的修复原图的肢体问题。 -
wan2.1视频模型生图可以用作Flux文生图后的图像质量提升或修复有利工具集使用。也可以直接wan2.1文生图或wan2.1图生图工具集使用 -
在lightx2v 4步加速模型下wan视频生成速度得到极大提升,因此将wan2.1作为图文生图底膜成为可能。 - 推荐:lightx2v=0.7,fusionx=0.5
大家可以尝试起来,效果真的非常惊艳。以上是lightx2V lora的介绍、使用与测试结果。以及工作流介绍,大家可以根据工作流思路进行尝试搭建。