【版权严正声明】
本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。
未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。
任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。
侵权必究,切勿以身试法!
1. 插件简介
ComfyUI-GGUF 是一个专门用于加载 GGUF 格式量化模型的 ComfyUI 插件,就像是给 ComfyUI 装上了一个"模型压缩包解压器"!
插件地址: https://github.com/city96/ComfyUI-GGUF
1.1 这个插件能做什么?
想象一下,你有一个神奇的压缩工具,可以:
节省显存:把原本需要24GB显存的大模型压缩到只需要8GB就能运行,就像把一个大箱子里的东西重新整理,让它们占用更少的空间
加载量化模型:支持各种"压缩等级"的模型文件(GGUF格式),就像支持不同压缩率的ZIP文件
保持质量:虽然模型被压缩了,但生成的图片质量依然很好,就像压缩照片时选择了高质量模式
支持多种模型:可以加载 Flux、SD3.5、T5 等各种类型的量化模型
这个插件特别适合显存不够的用户,让你在低端显卡上也能运行大模型!
2. 如何安装
方法一:通过 ComfyUI 管理器安装(推荐)
打开 ComfyUI
点击右下角的"Manager"按钮
搜索"GGUF"
找到"ComfyUI-GGUF"并点击安装
方法二:手动安装
进入你的 ComfyUI 安装目录
打开
custom_nodes文件夹在命令行中执行:
git clone https://github.com/city96/ComfyUI-GGUF.git
cd ComfyUI-GGUF
pip install -r requirements.txt安装后设置
安装完成后,你需要:
将 GGUF 格式的模型文件放到
ComfyUI/models/unet文件夹中将 GGUF 格式的文本编码器文件放到
ComfyUI/models/clip文件夹中重启 ComfyUI
3. 节点详细解析
这个插件总共包含 6个节点,我将逐一为你详细解释每个节点的作用和参数。
3.1 UnetLoaderGGUF 节点 - GGUF模型加载器(基础版)
这个节点就像是一个"压缩包解压器",专门用来加载GGUF格式的压缩模型文件,让它们能在ComfyUI中正常工作。
参数详解
3.2 UnetLoaderGGUFAdvanced 节点 - GGUF模型加载器(高级版)
这个节点是基础版的升级版,就像是一个"高级解压器",提供了更多的解压和优化选项。
参数详解
3.3 CLIPLoaderGGUF 节点 - GGUF文本编码器加载器
这个节点就像是一个"文字理解器的解压工具",专门用来加载压缩过的文本编码器模型。
参数详解
3.4 DualCLIPLoaderGGUF 节点 - 双文本编码器加载器
这个节点就像是一个"双语字典加载器",可以同时加载两个不同的文本编码器,让AI能更好地理解复杂的文字描述。
参数详解
3.5 TripleCLIPLoaderGGUF 节点 - 三文本编码器加载器
这个节点就像是一个"三语字典加载器",可以同时加载三个不同的文本编码器,提供更强大的文字理解能力。
参数详解
3.6 QuadrupleCLIPLoaderGGUF 节点 - 四文本编码器加载器
这个节点就像是一个"四语字典加载器",可以同时加载四个不同的文本编码器,提供最强大的文字理解能力。
参数详解
4. 使用技巧和建议
4.1 显存优化建议
8GB显存:使用Q4_0或Q4_K量化版本,这是最节省显存的选择
12GB显存:可以使用Q5_0或Q5_K量化版本,质量和速度的平衡点
16GB以上显存:可以使用Q6_K或Q8_0量化版本,接近原版质量
4.2 量化格式选择建议
Q2_K:最小文件,质量较差,适合测试
Q4_0/Q4_K:推荐选择,文件小,质量可接受
Q5_0/Q5_K:质量较好,文件适中
Q6_K:质量很好,文件较大
Q8_0:接近原版质量,文件最大
4.3 模型文件获取建议
Flux模型:可以从 Hugging Face 下载 city96/FLUX.1-dev-gguf
SD3.5模型:可以下载 city96/stable-diffusion-3.5-large-gguf
T5文本编码器:可以下载 city96/t5-v1_1-xxl-encoder-gguf
4.4 工作流搭建建议
基础流程:用GGUF加载器替换原来的模型加载器
混合使用:可以GGUF模型配合普通CLIP,或者普通模型配合GGUF CLIP
逐步替换:先替换最占显存的部分,再根据需要替换其他部分
5. 常见问题解答
5.1 加载GGUF模型时出错怎么办?
问题:提示"不支持的模型类型"或加载失败 解决方案:
确认模型文件完整下载,没有损坏
检查ComfyUI版本是否足够新(需要支持自定义操作)
确认模型文件放在正确的文件夹中
尝试重启ComfyUI
5.2 显存还是不够用怎么办?
问题:即使使用了GGUF模型,显存依然不足 解决方案:
选择更低的量化等级(如Q2_K或Q4_0)
在高级加载器中设置patch_on_device为False
降低生成图片的分辨率
关闭其他占用显存的程序
5.3 生成质量下降怎么办?
问题:使用GGUF模型后,生成的图片质量变差 解决方案:
尝试使用更高质量的量化版本(如Q6_K或Q8_0)
调整dequant_dtype为float32提高精度
检查是否使用了合适的文本编码器
适当增加采样步数
5.4 加载速度很慢怎么办?
问题:GGUF模型加载时间很长 解决方案:
确保模型文件在SSD硬盘上,不要放在机械硬盘
第一次加载会比较慢,后续会有缓存
避免频繁切换不同的GGUF模型
关闭不必要的后台程序
5.5 如何知道哪个量化版本适合我?
问题:不知道选择哪个量化等级 解决方案:
先尝试Q4_0版本,这是最常用的平衡选择
如果质量不满意,升级到Q5_K或Q6_K
如果显存不够,降级到Q2_K
可以下载多个版本进行对比测试
6. 支持的模型类型
6.1 图像生成模型
Flux系列:Flux.1-dev、Flux.1-schnell
Stable Diffusion 3.5:SD3.5-large、SD3.5-large-turbo
其他DiT模型:支持基于Transformer架构的扩散模型
6.2 文本编码器
T5系列:T5-v1.1-xxl等大型文本编码器
CLIP系列:各种CLIP模型的量化版本
混合支持:可以同时加载GGUF和普通格式的文本编码器
7. 总结
ComfyUI-GGUF 是一个专门用于显存优化的插件,总共包含 6个节点,本教程已经全部详细解析完成。这些节点可以分为两个主要类别:
模型加载节点(2个):UnetLoaderGGUF、UnetLoaderGGUFAdvanced
文本编码器加载节点(4个):支持1-4个文本编码器的同时加载
通过使用这个插件,你可以:
在低端显卡上运行大型模型
显著减少显存占用
保持相对较好的生成质量
灵活选择不同的压缩等级
记住,量化是一种权衡:你用一些质量换取了显存的节省。选择合适的量化等级,找到质量和性能的最佳平衡点,就能让你的ComfyUI体验更加流畅!
希望这份教程能帮助你成功使用 ComfyUI-GGUF 插件,在有限的硬件条件下也能享受AI绘画的乐趣!