Flux全部GGUF量化模型合集

概述

Flux GGUF 版本 是 Flux 模型的一种优化版本,专门为低显存设备设计,能够在显存有限的情况下运行高质量的 AI 图像生成任务。以下是对 Flux GGUF 版本的详细解释:

1. 什么是 GGUF?

GGUF 是 GPT-Generated Unified Format 的缩写,是一种高效的模型存储和交换格式。它通过量化技术(如 4 位6 位8 位等)压缩模型权重,从而减少显存占用,同时保持较高的生成质量。

  • 量化原理:量化通过减少模型权重的精度(如从 32 位浮点数压缩到 4 位),降低显存需求,但可能会略微影响生成质量。
  • 优势:GGUF 版本可以在低显存设备(如 6GB 显存)上运行,适合没有高端显卡的用户。

Flux全部GGUF量化模型合集

2. 为什么 Flux 需要 GGUF 版本?

Flux 模型的原始版本(如 Flux.1 Dev 和 Schnell)对显存要求较高,通常需要 16GB 或更多的显存才能流畅运行。这对于大多数普通用户来说是一个门槛。GGUF 版本的出现解决了这一问题,使得 Flux 可以在低显存设备上运行。

  • 原始版本显存需求:Flux.1 Dev 和 Schnell 的原始版本需要 16GB 以上的显存,文件大小通常为 23.8GB
  • GGUF 版本显存需求:GGUF 版本通过量化技术,显存需求大幅降低,最低仅需 6GB 显存即可运行。

3. GGUF 版本的量化级别

GGUF 版本有多种量化级别,用户可以根据自己的显存大小选择合适的版本:

量化级别 显存需求 生成质量
Q2/Q3(2/3 位) 6GB 较低
Q4(4 位) 8GB 中等
Q5(5 位) 10GB 较高
Q8(8 位) 16GB+ 接近原始版本
  • Q4 和 Q5:适合大多数用户,显存需求适中,生成质量较好。
  • Q8:适合高端显卡用户,生成质量接近原始版本。

安装方法

1.使用GGUF模型需要先安装GGUF插件:

ComfyUI-GGUF插件下载地址:https://github.com/city96/ComfyUI-GGUF

Flux全部GGUF量化模型合集

2.安装模型路径:

  • GGUF模型下载到ComfyUI根目录 models\unet 文件夹下(根据显卡选择对应的GGUF模型)
  • CLIP模型放入到ComfyUI根目录的models\clip文件夹下(clip1选择clip_l.safetensors,clip根据你的模型适配选择。)
  • VAE模型放入到ComfyUI根目录的models\vae文件夹下

工作流

Flux全部GGUF量化模型合集

 

下载权限

查看
  • 免费下载
    评论并刷新后下载
    登录后下载
  • 免费下载
    免费下载:
    签到可领取积分

查看演示

  • {{attr.name}}:
您当前的等级为
登录后免费下载登录 小黑屋反思中,不准下载! 评论后刷新页面下载评论 支付免费指引:【签到得积分即可下载】 请先登录 您今天的下载次数(次)用完了,请明天再来 支付积分免费指引:【签到得积分即可下载】立即支付 支付免费指引:【签到得积分即可下载】立即支付 您当前的用户组不允许下载升级会员
您已获得下载权限 您可以每天下载资源次,今日剩余
温馨提示:本站提供的一切软件、教程和内容信息都来自网络收集整理,仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负,版权争议与本站无关。在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给TA打赏
共{{data.count}}人
5人已打赏
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索