一、ComfyUI-TeaCache加速简介
ComfyUI-TeaCache 是一款专为 ComfyUI 打造的高效缓存插件,通过对计算结果的智能缓存机制,显著提升了 ComfyUI 的运行效率,尤其在多次重复运行类似任务的场景下能够有效节省时间和计算资源。通过分析这些变化,TeaCache 可以预测出在某些时间点上,模型的输出结果可能与之前的结果非常相似,因此就可以直接使用之前的结果,而不需要再次进行复杂的计算,从而提高整体的运行效率。
ComfyUI-TeaCache也是扩散模型中成熟的加速方案,是一种无需训练的缓存方法,能够估算并利用模型在不同时间步输出之间的波动差异,从而实现加快推理速度方案。大致的原理就是这样,和编程里的缓存很像,可以帮我们加速获取结果。
TeaCache 适用于图像扩散模型、视频扩散模型和音频扩散模型。在TeaCache的最新更新中已经支持Kontext的加速,可以实现1.5倍的无损加速,以及约2倍的无显著质量损失加速,同时能够支持Kontext LORA。ComfyUI-TeaCache当前还支持Flux、Wan、HiDream等多种常用的扩散模型加速。
二:模型与环境安装
本文使用ComfyUI本体支持的Flux作为工作流示例,仅需更新ComfyUI本体到最新版本即可。模型和工作流文末网盘下载!
ComfyUI-TeaCache整合包安装
- 转到 comfyUI custom_nodes 文件夹,
ComfyUI/custom_nodes/
- 手动下载 ComfyUI-TeaCache:
git clone https://github.com/welltop-cn/ComfyUI-TeaCache.git
- 转到 ComfyUI-TeaCache 文件夹,
cd ComfyUI-TeaCache/
- pip install -r requirements.txt
三:模型测评与体验
Comfyui-TeaCache加速体验工作流如下:关于Flux加速最佳实践和工作流下载,参见文末 文章总结 小节。
使用上也很简单,只需要链接在模型加载节点和采样器节点之间就可以了。
节点就一个,我们简单来讲下这些参数:
enable_teacache:是否开启缓存,关闭就相当于没有这个节点。
model_type:现在只有 flux,后续作者会支持混元以及 LTX-Video 视频模型。
rel_l1_thresh:这个参数值越大,生图速度越快,图片质量会下降,不同的模式和步数,rel_l1_thresh 的最优值都会有细微变化,可以在 0.4 左右调整。
steps:这个和采样节点里的步数保持一致即可。
四:工作流使用示例
五:文章总结
关于 Comfyui-TeaCache使用技巧总结如下:
- Comfyui-TeaCache可以实现 1.5 - 2倍的加速方案,并且可以实现无显著的质量损失。这针对大部分低显存用户,将是一种有效加速方案。
- Kontext的加速推荐使用功rel_l1_thresh = 0.22, start_percent = 0.2; end_percent = 0.9,如有质量损失,则可以尝试降低rel_l1_thresh值。