ComfyUI 魔法书 Logo
🏠 首页
👥 加群
🔥 报错不求人
😎 大帅比
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 🔥 报错不求人 😎 大帅比
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. ComfyUI-GGUF插件安装使用全攻略 手把手教你玩转AI绘画

ComfyUI-GGUF插件安装使用全攻略 手把手教你玩转AI绘画

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-06-27
  • 80 次阅读
编程界的小学生
编程界的小学生

【版权严正声明】

本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。

未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。

任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。

侵权必究,切勿以身试法!

1. 插件简介

ComfyUI-GGUF 是一个专门用于加载 GGUF 格式量化模型的 ComfyUI 插件,就像是给 ComfyUI 装上了一个"模型压缩包解压器"!

插件地址: https://github.com/city96/ComfyUI-GGUF

1.1 这个插件能做什么?

想象一下,你有一个神奇的压缩工具,可以:

  • 节省显存:把原本需要24GB显存的大模型压缩到只需要8GB就能运行,就像把一个大箱子里的东西重新整理,让它们占用更少的空间

  • 加载量化模型:支持各种"压缩等级"的模型文件(GGUF格式),就像支持不同压缩率的ZIP文件

  • 保持质量:虽然模型被压缩了,但生成的图片质量依然很好,就像压缩照片时选择了高质量模式

  • 支持多种模型:可以加载 Flux、SD3.5、T5 等各种类型的量化模型

这个插件特别适合显存不够的用户,让你在低端显卡上也能运行大模型!

2. 如何安装

方法一:通过 ComfyUI 管理器安装(推荐)

  1. 打开 ComfyUI

  2. 点击右下角的"Manager"按钮

  3. 搜索"GGUF"

  4. 找到"ComfyUI-GGUF"并点击安装

方法二:手动安装

  1. 进入你的 ComfyUI 安装目录

  2. 打开 custom_nodes 文件夹

  3. 在命令行中执行:

git clone https://github.com/city96/ComfyUI-GGUF.git
cd ComfyUI-GGUF
pip install -r requirements.txt

安装后设置

安装完成后,你需要:

  1. 将 GGUF 格式的模型文件放到 ComfyUI/models/unet 文件夹中

  2. 将 GGUF 格式的文本编码器文件放到 ComfyUI/models/clip 文件夹中

  3. 重启 ComfyUI

3. 节点详细解析

这个插件总共包含 6个节点,我将逐一为你详细解释每个节点的作用和参数。

3.1 UnetLoaderGGUF 节点 - GGUF模型加载器(基础版)

这个节点就像是一个"压缩包解压器",专门用来加载GGUF格式的压缩模型文件,让它们能在ComfyUI中正常工作。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

unet_name

unet_name

下拉选择

-

选择要加载的GGUF模型文件,就像选择要解压的压缩包

从unet文件夹中选择GGUF格式的扩散模型文件

选择你下载的flux-dev-Q4_0.gguf这样的文件

3.2 UnetLoaderGGUFAdvanced 节点 - GGUF模型加载器(高级版)

这个节点是基础版的升级版,就像是一个"高级解压器",提供了更多的解压和优化选项。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

unet_name

unet_name

下拉选择

-

选择要加载的GGUF模型文件,就像选择要解压的压缩包

从unet文件夹中选择GGUF格式的扩散模型文件

选择你下载的flux-dev-Q4_0.gguf这样的文件

dequant_dtype

dequant_dtype

下拉选择

default

解压时的数据精度,就像选择解压后文件的质量等级

反量化时使用的数据类型,影响计算精度和显存占用

default自动选择,float16节省显存,float32质量更好

patch_dtype

patch_dtype

下拉选择

default

补丁数据的精度,就像修补文件时的质量设置

应用LoRA等补丁时使用的数据类型

一般保持default,除非有特殊需求

patch_on_device

patch_on_device

布尔选择

False

是否在显卡上直接处理补丁,就像选择在哪里进行文件修补

控制补丁计算是在GPU还是CPU上进行

显存充足时可以开启True,提高速度

3.3 CLIPLoaderGGUF 节点 - GGUF文本编码器加载器

这个节点就像是一个"文字理解器的解压工具",专门用来加载压缩过的文本编码器模型。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

clip_name

clip_name

下拉选择

-

选择文本编码器文件,就像选择字典文件

选择CLIP或其他文本编码器模型文件

可以选择普通的.safetensors文件或GGUF格式的压缩文件

type

type

下拉选择

stable_diffusion

文本编码器的类型,就像选择字典的语言版本

指定文本编码器的架构类型

stable_diffusion适用于SD系列,sd3适用于SD3系列

3.4 DualCLIPLoaderGGUF 节点 - 双文本编码器加载器

这个节点就像是一个"双语字典加载器",可以同时加载两个不同的文本编码器,让AI能更好地理解复杂的文字描述。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

clip_name1

clip_name1

下拉选择

-

第一个文本编码器文件,就像第一本字典

第一个CLIP模型文件路径

选择主要的文本编码器文件

clip_name2

clip_name2

下拉选择

-

第二个文本编码器文件,就像第二本字典

第二个CLIP模型文件路径

选择辅助的文本编码器文件

type

type

下拉选择

stable_diffusion

文本编码器的类型,就像选择字典的语言版本

指定文本编码器的架构类型

根据你使用的模型选择对应类型

3.5 TripleCLIPLoaderGGUF 节点 - 三文本编码器加载器

这个节点就像是一个"三语字典加载器",可以同时加载三个不同的文本编码器,提供更强大的文字理解能力。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

clip_name1

clip_name1

下拉选择

-

第一个文本编码器文件,就像第一本字典

第一个CLIP模型文件路径

选择第一个文本编码器文件

clip_name2

clip_name2

下拉选择

-

第二个文本编码器文件,就像第二本字典

第二个CLIP模型文件路径

选择第二个文本编码器文件

clip_name3

clip_name3

下拉选择

-

第三个文本编码器文件,就像第三本字典

第三个CLIP模型文件路径

选择第三个文本编码器文件

3.6 QuadrupleCLIPLoaderGGUF 节点 - 四文本编码器加载器

这个节点就像是一个"四语字典加载器",可以同时加载四个不同的文本编码器,提供最强大的文字理解能力。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

clip_name1

clip_name1

下拉选择

-

第一个文本编码器文件,就像第一本字典

第一个CLIP模型文件路径

选择第一个文本编码器文件

clip_name2

clip_name2

下拉选择

-

第二个文本编码器文件,就像第二本字典

第二个CLIP模型文件路径

选择第二个文本编码器文件

clip_name3

clip_name3

下拉选择

-

第三个文本编码器文件,就像第三本字典

第三个CLIP模型文件路径

选择第三个文本编码器文件

clip_name4

clip_name4

下拉选择

-

第四个文本编码器文件,就像第四本字典

第四个CLIP模型文件路径

选择第四个文本编码器文件

4. 使用技巧和建议

4.1 显存优化建议

  • 8GB显存:使用Q4_0或Q4_K量化版本,这是最节省显存的选择

  • 12GB显存:可以使用Q5_0或Q5_K量化版本,质量和速度的平衡点

  • 16GB以上显存:可以使用Q6_K或Q8_0量化版本,接近原版质量

4.2 量化格式选择建议

  • Q2_K:最小文件,质量较差,适合测试

  • Q4_0/Q4_K:推荐选择,文件小,质量可接受

  • Q5_0/Q5_K:质量较好,文件适中

  • Q6_K:质量很好,文件较大

  • Q8_0:接近原版质量,文件最大

4.3 模型文件获取建议

  • Flux模型:可以从 Hugging Face 下载 city96/FLUX.1-dev-gguf

  • SD3.5模型:可以下载 city96/stable-diffusion-3.5-large-gguf

  • T5文本编码器:可以下载 city96/t5-v1_1-xxl-encoder-gguf

4.4 工作流搭建建议

  • 基础流程:用GGUF加载器替换原来的模型加载器

  • 混合使用:可以GGUF模型配合普通CLIP,或者普通模型配合GGUF CLIP

  • 逐步替换:先替换最占显存的部分,再根据需要替换其他部分

5. 常见问题解答

5.1 加载GGUF模型时出错怎么办?

问题:提示"不支持的模型类型"或加载失败 解决方案:

  1. 确认模型文件完整下载,没有损坏

  2. 检查ComfyUI版本是否足够新(需要支持自定义操作)

  3. 确认模型文件放在正确的文件夹中

  4. 尝试重启ComfyUI

5.2 显存还是不够用怎么办?

问题:即使使用了GGUF模型,显存依然不足 解决方案:

  1. 选择更低的量化等级(如Q2_K或Q4_0)

  2. 在高级加载器中设置patch_on_device为False

  3. 降低生成图片的分辨率

  4. 关闭其他占用显存的程序

5.3 生成质量下降怎么办?

问题:使用GGUF模型后,生成的图片质量变差 解决方案:

  1. 尝试使用更高质量的量化版本(如Q6_K或Q8_0)

  2. 调整dequant_dtype为float32提高精度

  3. 检查是否使用了合适的文本编码器

  4. 适当增加采样步数

5.4 加载速度很慢怎么办?

问题:GGUF模型加载时间很长 解决方案:

  1. 确保模型文件在SSD硬盘上,不要放在机械硬盘

  2. 第一次加载会比较慢,后续会有缓存

  3. 避免频繁切换不同的GGUF模型

  4. 关闭不必要的后台程序

5.5 如何知道哪个量化版本适合我?

问题:不知道选择哪个量化等级 解决方案:

  1. 先尝试Q4_0版本,这是最常用的平衡选择

  2. 如果质量不满意,升级到Q5_K或Q6_K

  3. 如果显存不够,降级到Q2_K

  4. 可以下载多个版本进行对比测试

6. 支持的模型类型

6.1 图像生成模型

  • Flux系列:Flux.1-dev、Flux.1-schnell

  • Stable Diffusion 3.5:SD3.5-large、SD3.5-large-turbo

  • 其他DiT模型:支持基于Transformer架构的扩散模型

6.2 文本编码器

  • T5系列:T5-v1.1-xxl等大型文本编码器

  • CLIP系列:各种CLIP模型的量化版本

  • 混合支持:可以同时加载GGUF和普通格式的文本编码器

7. 总结

ComfyUI-GGUF 是一个专门用于显存优化的插件,总共包含 6个节点,本教程已经全部详细解析完成。这些节点可以分为两个主要类别:

  • 模型加载节点(2个):UnetLoaderGGUF、UnetLoaderGGUFAdvanced

  • 文本编码器加载节点(4个):支持1-4个文本编码器的同时加载

通过使用这个插件,你可以:

  • 在低端显卡上运行大型模型

  • 显著减少显存占用

  • 保持相对较好的生成质量

  • 灵活选择不同的压缩等级

记住,量化是一种权衡:你用一些质量换取了显存的节省。选择合适的量化等级,找到质量和性能的最佳平衡点,就能让你的ComfyUI体验更加流畅!

希望这份教程能帮助你成功使用 ComfyUI-GGUF 插件,在有限的硬件条件下也能享受AI绘画的乐趣!

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号