ComfyUI_HiDiffusion_Pro 插件完全使用指南
1. 插件简介
ComfyUI_HiDiffusion_Pro是一个专门为ComfyUI设计的高清图像生成插件,原始地址:https://github.com/smthemex/ComfyUI_HiDiffusion_Pro
这个插件的主要作用就像给你的画画工具装上了"高清放大镜",能够让你生成更清晰、更高分辨率的图片。想象一下,原本你只能画出模糊的小图,现在可以画出清晰的大图了!
这个插件能给我们带来什么效果:
- 让图片变得更清晰、更高分辨率
- 支持多种加速模式,让生图速度更快
- 可以配合各种模型使用,比如SD1.5、SDXL等
- 支持图生图和文生图两种模式
- 可以和其他插件组合使用,功能更强大
2. 如何安装
方法一:使用ComfyUI-Manager(推荐新手使用)
- 打开ComfyUI界面
- 点击右下角的"Manager"按钮
- 在搜索框输入"HiDiffusion"
- 找到"ComfyUI_HiDiffusion_Pro"并点击安装
- 重启ComfyUI
方法二:手动安装
- 找到你的ComfyUI安装文件夹
- 进入
ComfyUI\custom_nodes目录 - 打开命令提示符(Windows)或终端(Mac/Linux)
- 输入:
git clone https://github.com/smthemex/ComfyUI_HiDiffusion_Pro.git - 重启ComfyUI
安装完成后需要的文件:
- 需要安装diffusers库(版本0.28.0或更高)
- 需要准备相应的模型文件(SD1.5、SDXL等)
3. 节点详细解析
3.1 HiDiffusion_Model_Loader(模型加载器)节点
这个节点就像一个"智能管家",专门负责加载和准备你要使用的AI模型。它会自动识别你的模型类型,并做好相应的优化设置。
3.1.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | ckpt_name | 下拉菜单 | 根据需要选择 | 就像选择不同的画笔,每个模型画出来的风格不一样 | 选择要使用的checkpoint模型文件 | 如果想画动漫风格选择SD1.5,想画写实风格选择SDXL |
| VAE选择 | vae_name | 下拉菜单 | 默认或匹配模型 | 就像选择不同的颜料,决定图片的色彩表现 | 选择变分自编码器,影响图像质量 | 一般选择和模型匹配的VAE,或者选择"默认" |
| 加速模式 | apply_hidiffusion | 开关 | True | 就像给汽车装上涡轮增压,让生图速度更快 | 是否启用HiDiffusion加速功能 | 建议开启,能显著提高生成速度 |
| 窗口注意力 | apply_window_attn | 开关 | False | 就像给眼镜加上特殊镜片,让AI更专注于局部细节 | 是否启用窗口注意力机制 | 生成高分辨率图片时可以开启 |
3.2 HiDiffusion_Sampler(采样器)节点
这个节点就像一个"魔法师",控制着图片是如何一步步从噪声变成你想要的图像。它决定了生成过程的质量和速度。
3.2.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 采样器类型 | sampler_name | 下拉菜单 | euler_ancestral | 就像选择不同的画画方法,有的快有的慢有的细腻 | 选择采样算法类型 | 新手推荐用euler_ancestral,稳定好用 |
| 调度器 | scheduler | 下拉菜单 | normal | 就像选择画画的节奏,是快速草图还是慢工出细活 | 选择噪声调度方式 | 一般选择normal,特殊情况选择karras |
| 采样步数 | steps | 数字 | 20-50 | 就像画画的笔画数,步数越多越精细但越慢 | 去噪迭代次数 | 新手用20步,追求质量用30-50步 |
| 引导强度 | cfg | 数字 | 7.0 | 就像调节AI听话程度,数值越高越听你的描述 | 分类器自由引导强度 | 一般用6-8,太高可能过拟合 |
| 随机种子 | seed | 数字 | 随机 | 就像抽奖的号码,同样的种子会生成相同的图片 | 随机数生成器种子 | 想要同样结果用固定数字,想要惊喜用-1 |
3.3 HiDiffusion_Txt2Img(文生图)节点
这个节点就像一个"翻译官",把你的文字描述翻译成漂亮的图片。它是整个插件的核心功能之一。
3.3.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 正向提示词 | positive | 文本框 | 详细描述 | 就像给画师下订单,告诉他你想要什么样的图片 | 正面提示词,描述想要的内容 | 写"a beautiful girl, anime style, blue hair"这样的描述 |
| 负向提示词 | negative | 文本框 | 质量词 | 就像告诉画师你不想要什么,避免画出来的图有问题 | 负面提示词,描述不想要的内容 | 写"blurry, low quality, deformed"这样的词 |
| 图片宽度 | width | 数字 | 512或1024 | 就像选择画布的宽度,数字越大图片越宽 | 生成图像的宽度像素 | SD1.5用512,SDXL用1024 |
| 图片高度 | height | 数字 | 512或1024 | 就像选择画布的高度,数字越大图片越高 | 生成图像的高度像素 | 建议和宽度保持一致或16:9比例 |
| 生成数量 | batch_size | 数字 | 1 | 就像一次性订购几张画,数量越多越耗时间和资源 | 一次生成的图像数量 | 新手建议用1,避免显存不足 |
3.4 HiDiffusion_Img2Img(图生图)节点
这个节点就像一个"图片编辑师",能够根据你提供的原图和描述,生成一张新的图片。它可以保持原图的构图同时改变风格。
3.4.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 输入图片 | image | 图片输入 | 必填 | 就像给编辑师提供原图,作为改造的基础 | 作为参考的输入图像 | 上传你想要改造的图片 |
| 降噪强度 | denoise | 数字 | 0.7 | 就像调节改造程度,数值越高改变越大 | 去噪强度,控制变化程度 | 0.3-0.5微调,0.7-0.9大改 |
| 正向提示词 | positive | 文本框 | 详细描述 | 告诉AI你想把原图改成什么样子 | 正面提示词,描述期望的变化 | "turn into anime style"这样的描述 |
| 负向提示词 | negative | 文本框 | 质量词 | 告诉AI你不想要什么效果 | 负面提示词,避免不良效果 | "blurry, distorted"这样的词 |
| 图片宽度 | width | 数字 | 原图尺寸 | 最终输出图片的宽度 | 输出图像的宽度像素 | 建议和原图保持一致 |
| 图片高度 | height | 数字 | 原图尺寸 | 最终输出图片的高度 | 输出图像的高度像素 | 建议和原图保持一致 |
3.5 HiDiffusion_ControlNet(控制网络)节点
这个节点就像一个"构图助手",能够帮助AI按照特定的构图要求来生成图片。比如让AI按照你提供的线稿来画画。
3.5.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 控制图片 | control_image | 图片输入 | 必填 | 就像给AI提供构图参考,让它按照这个结构来画 | 用于控制生成的参考图像 | 上传线稿、深度图或边缘图等 |
| 控制模型 | control_net | 下拉菜单 | 对应类型 | 就像选择不同的构图老师,每个老师擅长不同类型 | 选择ControlNet模型类型 | 线稿用canny,深度图用depth |
| 控制强度 | strength | 数字 | 1.0 | 就像调节构图约束程度,数值越高越严格按照参考图 | 控制影响的强度 | 0.7-1.0比较合适,太低没效果 |
| 开始时机 | start_percent | 数字 | 0.0 | 就像决定什么时候开始听构图老师的话 | 控制开始作用的时间点 | 一般用0.0,即从头开始 |
| 结束时机 | end_percent | 数字 | 1.0 | 就像决定什么时候不再听构图老师的话 | 控制结束作用的时间点 | 一般用1.0,即到最后 |
| 预处理器 | preprocessor | 下拉菜单 | 自动 | 就像选择图片预处理方式,让参考图更适合AI理解 | 图像预处理方法 | 选择"none"如果图片已经处理好 |
3.6 HiDiffusion_Lora(风格插件)节点
这个节点就像一个"风格化妆师",能够给你的图片添加特定的风格效果。比如让普通图片变成动漫风格或油画风格。
3.6.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| Lora模型 | lora_name | 下拉菜单 | 根据需要 | 就像选择不同的滤镜,每个都有独特的风格效果 | 选择要应用的Lora模型 | 想要动漫风格就选anime相关的lora |
| 模型强度 | model_strength | 数字 | 1.0 | 就像调节滤镜强度,数值越高风格越明显 | Lora对模型的影响强度 | 0.7-1.0比较合适,太高可能过度 |
| 剪辑强度 | clip_strength | 数字 | 1.0 | 就像调节对文字理解的影响程度 | Lora对文本编码的影响强度 | 一般和模型强度保持一致 |
| 触发词 | trigger_words | 文本框 | 查看说明 | 就像魔法咒语,说出特定的词才能激活风格 | 激活Lora效果的关键词 | 每个lora都有特定的触发词,要查看说明 |
3.7 HiDiffusion_Upscaler(放大器)节点
这个节点就像一个"图片放大镜",能够把小图变成大图,同时保持或提升图片质量。
3.7.1 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 输入图片 | image | 图片输入 | 必填 | 就像提供要放大的原图 | 需要放大的输入图像 | 上传你想要放大的图片 |
| 放大倍数 | scale_by | 数字 | 2.0 | 就像选择放大镜的倍数,2就是放大2倍 | 图像放大的倍数 | 2倍比较安全,4倍需要更多资源 |
| 放大方法 | upscale_method | 下拉菜单 | lanczos | 就像选择不同的放大技术,有的快有的精确 | 图像放大算法 | lanczos质量好,nearest速度快 |
| 图片宽度 | width | 数字 | 自动计算 | 最终输出图片的宽度 | 输出图像的宽度像素 | 一般自动计算,无需手动设置 |
| 图片高度 | height | 数字 | 自动计算 | 最终输出图片的高度 | 输出图像的高度像素 | 一般自动计算,无需手动设置 |
4. 使用技巧和建议
4.1 新手入门建议
- 从简单开始:先用文生图功能熟悉基本操作,不要一开始就用复杂的组合
- 参数保守:刚开始建议用较小的分辨率(512x512)和较少的步数(20步)
- 保存工作流:找到好用的参数组合后,记得保存工作流方便下次使用
4.2 性能优化技巧
- 显存管理:如果显存不足,可以降低分辨率或减少生成数量
- 速度提升:启用HiDiffusion加速功能,可以显著提高生成速度
- 模型选择:SD1.5占用显存少速度快,SDXL质量高但需要更多资源
4.3 质量提升技巧
- 提示词优化:使用详细的正向提示词,添加质量相关的负向提示词
- 合理步数:一般20-30步足够,超过50步提升有限
- CFG调节:6-8之间比较合适,太高容易过饱和
4.4 常用工作流组合
- 基础文生图:模型加载器 → 采样器 → 文生图
- 图片优化:模型加载器 → 采样器 → 图生图 → 放大器
- 风格转换:模型加载器 → Lora → 采样器 → 图生图
- 精确控制:模型加载器 → 采样器 → ControlNet → 文生图
5. 常见问题解答
5.1 安装问题
问题:安装后找不到节点
- 检查是否正确安装到custom_nodes目录
- 重启ComfyUI
- 检查是否有错误提示
问题:依赖库报错
- 确保安装了diffusers>=0.28.0
- 检查Python环境是否正确
5.2 使用问题
问题:生成图片模糊
- 检查模型和VAE是否匹配
- 尝试增加采样步数
- 检查分辨率设置是否合适
问题:显存不足
- 降低分辨率
- 减少生成数量
- 启用CPU模式(速度会很慢)
问题:生成速度慢
- 启用HiDiffusion加速
- 使用较少的采样步数
- 选择更快的采样器
5.3 参数设置问题
问题:图片和提示词不匹配
- 检查CFG值是否合适(推荐6-8)
- 优化提示词描述
- 检查负向提示词是否过多
问题:图生图变化太大
- 降低denoise值(0.3-0.5)
- 检查提示词是否过于复杂
- 尝试调整CFG值
6. 进阶使用技巧
6.1 多节点组合使用
这个插件的强大之处在于可以把多个节点组合起来使用,就像搭积木一样。比如你可以先用文生图生成基础图片,然后用图生图优化,最后用放大器提升分辨率。
6.2 与其他插件配合
ComfyUI_HiDiffusion_Pro可以和其他插件很好地配合使用:
- 配合面部修复插件改善人物面部
- 配合背景去除插件处理背景
- 配合风格迁移插件实现更多效果
6.3 自定义工作流
当你熟悉了各个节点的功能后,可以根据自己的需要创建专属的工作流:
- 人物肖像专用工作流
- 风景图片专用工作流
- 动漫风格专用工作流
6.4 批量处理技巧
如果需要处理大量图片,可以:
- 使用固定的参数设置
- 准备好所有输入图片
- 合理安排生成顺序避免显存问题
这个插件功能强大但使用简单,关键是要多练习,熟能生巧。建议新手从最基础的功能开始,逐步探索更高级的用法。记住,每个参数都有它的作用,理解了作用就能更好地控制生成效果。