ComfyUI 魔法书 Logo
🏠 首页
👥 加群
😎 大帅比
❤️‍🔥 Monster 社区
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 😎 大帅比 ❤️‍🔥 Monster 社区
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. ComfyUI-ModelQuantizer插件详细使用指南 量化模型轻松上手

ComfyUI-ModelQuantizer插件详细使用指南 量化模型轻松上手

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-07-03
  • 38 次阅读
编程界的小学生
编程界的小学生

ComfyUI-ModelQuantizer 插件完全使用教程

1. 插件简介

GitHub原地址: https://github.com/lum3on/ComfyUI-ModelQuantizer

ComfyUI-ModelQuantizer 是一个专门用来给 AI 模型"瘦身"的插件包。就像你用压缩软件把大文件变小一样,这个插件可以让你的 AI 模型文件变得更小,但还能保持不错的效果。

这个插件能给我们带来什么好处?

  • 让模型文件变小,节省硬盘空间(大概能缩小50%左右)
  • 让模型跑得更快一些
  • 特别适合显卡内存不够大的朋友
  • 支持多种"瘦身"方式,就像有不同的压缩等级

2. 如何安装

方法一:用 Git 安装(推荐)

  1. 打开命令行,进入你的 ComfyUI 文件夹
  2. 输入以下命令:
cd ComfyUI/custom_nodes
git clone https://github.com/lum3on/ComfyUI-ModelQuantizer.git

方法二:手动下载

  1. 去 GitHub 页面下载 ZIP 文件
  2. 解压到 ComfyUI/custom_nodes/ComfyUI-ModelQuantizer 文件夹里

安装依赖

cd ComfyUI/custom_nodes/ComfyUI-ModelQuantizer
pip install -r requirements.txt

安装完成后重启 ComfyUI 就可以使用了。

3. 节点详细解析

3.1 Model To State Dict 节点 - 模型拆解器

这个节点是干嘛的?
就像把一个包装好的礼品盒拆开,把里面的东西一个个拿出来。这个节点把 AI 模型拆解成一个个小零件,方便后面的处理。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
modelmodelMODEL对象必填就像你要拆的礼品盒输入的模型对象直接连接加载模型的节点输出

输出:

  • model_state_dict:拆解后的模型零件包

3.2 Quantize Model to FP8 Format 节点 - 超级压缩器

这个节点是干嘛的?
这是最厉害的压缩器,能把模型压缩到极致,但需要很好的显卡支持。就像用最高压缩比的压缩软件,效果很好但要求比较高。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
model_state_dictmodel_state_dict模型零件包必填上一步拆解出来的零件模型状态字典连接 Model To State Dict 的输出
fp8_formatfp8_formatfloat8_e4m3fn / float8_e5m2float8_e4m3fn选择压缩方式,就像选择压缩软件的不同算法FP8格式类型一般选 float8_e4m3fn 兼容性更好

输出:

  • quantized_model_state_dict:压缩后的模型零件包

3.3 Quantize Model Scaled 节点 - 智能压缩器

这个节点是干嘛的?
这是个聪明的压缩器,会先分析模型的特点,然后选择最合适的压缩方式。就像智能洗衣机会根据衣服材质选择洗涤程序。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
model_state_dictmodel_state_dict模型零件包必填要压缩的模型零件模型状态字典连接 Model To State Dict 的输出
scaling_strategyscaling_strategyper_tensor / per_channelper_channel选择压缩策略:per_tensor像批量处理,per_channel像精细处理缩放策略per_channel 质量更好但慢一些
processing_deviceprocessing_deviceAuto / CPU / GPUAuto选择用什么来处理:让系统自动选择处理设备一般选 Auto 让系统自动判断
output_dtypeoutput_dtypeOriginal / float16 / bfloat16float16选择最终的数据格式,就像选择图片的保存格式输出数据类型float16 是最常用的,兼容性好

输出:

  • quantized_model_state_dict:智能压缩后的模型零件包

3.4 Save As SafeTensor 节点 - 模型保存器

这个节点是干嘛的?
就像把处理好的文件保存到硬盘上,这个节点把压缩后的模型保存成文件,方便以后使用。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
quantized_model_state_dictquantized_model_state_dict压缩后的模型零件包必填要保存的压缩模型量化后的状态字典连接压缩节点的输出
absolute_save_pathabsolute_save_path文件路径必填保存文件的完整路径,包括文件名绝对保存路径例如:D:/ComfyUI/models/checkpoints/my_model.safetensors

输出:

  • 无输出(这是个终点节点)

3.5 ControlNet FP8 Quantizer 节点 - ControlNet 专用压缩器

这个节点是干嘛的?
这是专门为 ControlNet 模型设计的压缩器,就像专门洗丝绸的洗涤程序,针对性更强,效果更好。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
controlnet_modelcontrolnet_model下拉选择必选从你的 ControlNet 文件夹里选择要压缩的模型ControlNet模型选择自动显示 models/controlnet/ 里的文件
fp8_formatfp8_formatfloat8_e4m3fn / float8_e5m2float8_e4m3fn选择压缩格式,就像选择压缩软件的算法FP8格式类型float8_e4m3fn 推荐,兼容性好
quantization_strategyquantization_strategyper_tensor / per_channelper_channel压缩策略:per_tensor快但粗糙,per_channel慢但精细量化策略per_channel 质量更好
activation_clippingactivation_clippingTrue / FalseTrue开启智能修剪,去掉异常数据激活剪裁开启能提高压缩质量
custom_output_namecustom_output_name文本输入可选自定义输出文件名自定义输出名称不填会自动生成名字
calibration_samplescalibration_samples数字100校准样本数量,就像调音器的精度校准样本数10-1000之间,100是平衡点
preserve_metadatapreserve_metadataTrue / FalseTrue保留原始模型的信息标签保留元数据建议开启,方便以后识别

输出:

  • status:操作状态信息
  • metadata_info:模型信息详情
  • quantization_stats:压缩统计数据

3.6 ControlNet Metadata Viewer 节点 - ControlNet 信息查看器

这个节点是干嘛的?
就像文件的属性查看器,能显示 ControlNet 模型的详细信息,帮你了解模型的各种参数。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
controlnet_modelcontrolnet_model下拉选择必选选择要查看信息的 ControlNet 模型ControlNet模型选择从 models/controlnet/ 文件夹选择

输出:

  • metadata:模型的原始信息
  • tensor_info:模型内部结构信息
  • model_analysis:模型分析报告

3.7 GGUF Quantizer 节点 - GGUF 格式转换器

这个节点是干嘛的?
这是个格式转换器,能把模型转换成 GGUF 格式。就像把视频文件转换成不同格式,适合不同的播放器使用。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
modelmodelMODEL对象必填要转换的模型输入模型对象连接模型加载节点
quantization_typequantization_typeF16/Q4_K_M/Q5_0/Q8_0/ALLQ4_K_M选择压缩等级,就像选择视频的画质量化类型Q4_K_M 是平衡选择
output_path_templateoutput_path_template文本输入必填输出文件的路径模板输出路径模板例如:models/unet/quantized/
is_absolute_pathis_absolute_pathTrue / FalseFalse是否使用绝对路径绝对路径模式False 使用相对路径更安全
setup_environmentsetup_environmentTrue / FalseTrue是否自动设置环境环境设置首次使用建议开启
verbose_loggingverbose_loggingTrue / FalseTrue是否显示详细日志详细日志开启能看到详细进度

输出:

  • status_message:操作状态信息
  • output_gguf_path_or_dir:输出文件路径

4. 使用技巧和建议

4.1 新手推荐流程

  1. 先用 Quantize Model Scaled 节点,选择 per_channel 和 float16
  2. 这样能得到不错的压缩效果,又不会太复杂
  3. 压缩后的模型大概能小50%左右

4.2 高级用户技巧

  1. 追求极致压缩:使用 Quantize Model to FP8 Format 节点
  2. 批量处理:可以同时运行多个压缩节点
  3. 质量优先:选择 per_channel 策略
  4. 速度优先:选择 per_tensor 策略

4.3 ControlNet 专用建议

  1. 使用 ControlNet FP8 Quantizer 节点
  2. 开启 activation_clipping 提高质量
  3. 设置 calibration_samples 为 100(平衡点)
  4. 用 ControlNet Metadata Viewer 对比压缩前后的差异

5. 常见问题解答

Q1:压缩后的模型效果会差很多吗?

A:一般来说,使用 per_channel 策略和 float16 格式,效果差异很小,但文件大小能减少约50%。

Q2:我的显卡不支持 FP8 怎么办?

A:可以使用 Quantize Model Scaled 节点,选择 CPU 处理,或者直接用 float16 格式。

Q3:GGUF 转换为什么需要这么多内存?

A:GGUF 转换需要同时加载原模型和转换后的模型,所以需要大量内存(建议96GB以上)。

Q4:压缩后的模型可以直接在 ComfyUI 里使用吗?

A:可以的,压缩后的模型完全兼容 ComfyUI,加载方式和普通模型一样。

Q5:哪种压缩方式最好?

A:

  • 日常使用:Quantize Model Scaled + per_channel + float16
  • 极致压缩:Quantize Model to FP8 Format + float8_e4m3fn
  • ControlNet:ControlNet FP8 Quantizer + per_channel + activation_clipping

6. 系统要求

最低要求:

  • Python 3.8+
  • PyTorch 2.0+
  • 8GB 内存

推荐配置:

  • CUDA 显卡(支持 FP8)
  • 16GB+ 内存
  • 足够的硬盘空间

GGUF 转换特殊要求:

  • 96GB+ 内存
  • 充足的临时存储空间

7. 实用工作流程示例

7.1 基础模型压缩流程

加载模型 → Model To State Dict → Quantize Model Scaled → Save As SafeTensor

7.2 ControlNet 专用流程

ControlNet FP8 Quantizer → 查看压缩结果

7.3 GGUF 转换流程

加载模型 → GGUF Quantizer → 保存结果

这个插件功能强大,能够满足不同用户的压缩需求。新手建议从 Quantize Model Scaled 开始尝试,有经验的用户可以探索更高级的 FP8 压缩和 GGUF 转换功能。记住,压缩是一个平衡的艺术——在文件大小、处理速度和质量之间找到最适合你的平衡点!

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号