Flux-Kontext-NunChaKu加速版本,6G显存占用,15秒渲染速度狂飙3倍

一、Nunchaku Kontext介绍

开源生态速度就是快啊,Kontext刚开源没几天,各种模型、lora、以及加速模型都来了,今天介绍的是我们熟悉的双截棍Nunchaku,也支持了Kontext了,我第一时间就去更新测试了,真的爽,10秒出图,显存占用16G。

测试了一些数据,发现效果没差多少,速度快了几倍,还是很爽的,废话不多少说,带大家来安装体验最新的Nunchaku。

Flux-Kontext-NunChaKu加速版本,6G显存占用,15秒渲染速度狂飙3倍

二、相关安装

以前安装Nunchaku0.2或者Nunchaku0.3版本都要卸载重新安装最新版:Nunchaku0.3.1(版本号,目前最新的就是 3.1 了)

插件地址:github.com/mit-han-lab/

轮子安装:

https://modelscope.cn/models/Lmxyy1999/nunchaku/files

comfyui环境:torch2.7和python 3.12,我下载的是 nunchaku-0.3.1+torch2.7-cp312-cp312-win_amd64.whl

nunchaku-0.3.1+torch2.7(Python 版本)-cp312(Python 版本)-cp312-win(操作系统,win/linux)_amd64.whl 大家根据自己的环境下载对应的版本即可

放到comfyUI的python目录下,进入命令窗口执行:

python.exe -m pip install nunchaku-0.3.1-torch2.7-cp312-cp312-win_amd64.whl

到此,环境就安装好了。

模型下载:

这次的模型有2个

  • svdq-fp4_r32-flux.1-kontext-dev.safetensors :50系列使用
  • svdq-int4_r32-flux.1-kontext-dev.safetensors:50以下系列使用

Flux-Kontext-NunChaKu加速版本,6G显存占用,15秒渲染速度狂飙3倍

kontext模型安装路径: models/diffusion_models

CLIP、VAE模型与Flux一致,可重用本地已有模型。

三、使用教程与体验

使用方式:工作流与官方默认方式几乎一致,只需将原先的「UNet 加载器」替换为「Nunchaku FLUX DiT Loader」即可无缝运行。

Flux-Kontext-NunChaKu加速版本,6G显存占用,15秒渲染速度狂飙3倍

工作流直接使用kontext即可无缝衔接加速,工作流接入Nunchaku示例:

Flux-Kontext-NunChaKu加速版本,6G显存占用,15秒渲染速度狂飙3倍

下载权限

查看
  • 免费下载
    评论并刷新后下载
    登录后下载
  • 免费下载
    免费下载:
    签到可领取积分

查看演示

  • {{attr.name}}:
您当前的等级为
登录后免费下载登录 小黑屋反思中,不准下载! 评论后刷新页面下载评论 支付免费指引:【签到得积分即可下载】 请先登录 您今天的下载次数(次)用完了,请明天再来 支付积分免费指引:【签到得积分即可下载】立即支付 支付免费指引:【签到得积分即可下载】立即支付 您当前的用户组不允许下载升级会员
您已获得下载权限 您可以每天下载资源次,今日剩余
温馨提示:本站提供的一切软件、教程和内容信息都来自网络收集整理,仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负,版权争议与本站无关。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给TA打赏
共{{data.count}}人
5人已打赏
视频插件视频模型音视频

Wan FusionX极致电影级AI视频生成+安装以及参数调整完整指南

2025-7-1 14:52:08

comfyui教程其他

Comfyui小白必装插件推荐

2025-4-2 22:17:55

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索