wan2.1视频模型已经证明了它的实力,现在逐渐成为主流视频生成模型,而在视频生成方面,开源界也还在持续竞争内卷中。但目前,开源最强的还是wan2.1,只要大家公认,则随之就是围绕它的生态完善。我们都知道生成视频的时候,除了质量以外,视频的生成速度也是大家比较关心的一个点。
WAN2.1 是阿里云开源的视频生成模型,分为14B和1.3B两个版本,1.3B模型生成速度较快且能兼容所有消费级GPU,官方介绍,8G显存即可畅玩wan2.1视频模型,不过经过一天的实测,按照官方文档部署,8G显存无法运行1.3B模型。不过好在有国外大佬对此做了优化,实测FP8最低6G显存即可实现视频生成推理。
之前在腾讯混元视频的生成中也使用过这个技术,现在阿里Wan2.1视频模型也支持啦!
好了,话不多说,我们直接开整。
工作流:
- Wan2.1+文生视频+LoRA+工作流
- Wan2.1+图生视频+Lora+工作流
必备:
Wan2.1-T2V-14B 是唯一一个能生成中英文文本的视频模型,支持 480P 和 720P 分辨率的视频生成。
Wan2.1 的 VAE 在 A800 GPU 上的重建视频速度是 HunYuanVideo 的 2.5 倍。
体验下来,WAN2.1 这款 AI 视频生成模型,确实给我带来了很大的惊喜。 与之前用过的其他文生视频或图生视频 AI 模型相比,WAN2.1 在易用性、生成速度和视频质量上,都表现出了明显的优势。 即使在我的普通电脑上,WAN2.1 的视频生成速度也很快,而且效果非常出色。 最重要的是,WAN2.1 是一款完全免费开源的模型,这使得人人都有机会体验 AI 视频创作的乐趣。