ComfyUI 魔法书 Logo
🏠 首页
👥 加群
😎 大帅比
❤️‍🔥 Monster 社区
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 😎 大帅比 ❤️‍🔥 Monster 社区
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. X-Flux ComfyUI插件使用指南 从入门到精通教程

X-Flux ComfyUI插件使用指南 从入门到精通教程

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-06-27
  • 63 次阅读
编程界的小学生
编程界的小学生

【版权严正声明】

本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。

未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。

任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。

侵权必究,切勿以身试法!

1. 插件简介

插件地址: https://github.com/XLabs-AI/x-flux-comfyui

这个插件是专门为 ComfyUI 设计的 FLUX 模型增强工具包。它就像给你的 FLUX 模型装上了各种神奇的配件,让你能够:

  • 加载特殊风格包(LoRA):就像给画家换不同的画笔,让 AI 画出不同风格的图片

  • 精确控制图片生成(ControlNet):就像给 AI 一个参考线稿,让它按照你的要求画图

  • 图片风格参考(IP Adapter):就像给 AI 看一张参考图,让它模仿这张图的风格来画新图

  • 专业采样器:就像一个更精密的"冲洗照片"工具,让生成的图片质量更好

2. 如何安装

通用安装方法:

  1. 找到 ComfyUI 文件夹

    • 打开你的 ComfyUI 安装目录

    • 进入 custom_nodes 文件夹(这是放插件的地方)

  2. 下载插件

    • 在 custom_nodes 文件夹里打开命令行

    • 输入:git clone https://github.com/XLabs-AI/x-flux-comfyui.git

    • 或者直接下载压缩包解压到这里

  3. 安装依赖

    • 进入插件文件夹:cd x-flux-comfyui

    • 运行安装脚本:python setup.py

  4. 重启 ComfyUI

    • 关闭 ComfyUI 后重新启动

    • 你就能在节点列表里看到新的 XLabsNodes 分类了

注意: 第一次启动后,ComfyUI 会自动创建这些文件夹:

  • ComfyUI/models/xlabs/loras - 放风格包文件

  • ComfyUI/models/xlabs/controlnets - 放控制网络文件

  • ComfyUI/models/xlabs/ipadapters - 放图片适配器文件

3. 节点详细解析

本插件总共包含 8 个节点,现在逐一详细解析:

3.1 Load Flux LoRA(加载 Flux 风格包)

这个节点就像一个"风格化妆师",给你的 AI 模型换上不同的绘画风格。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

这是你要"化妆"的基础模型,就像化妆前的素颜脸

输入的FLUX基础模型

连接你的FLUX模型加载器

lora_name

lora_name

下拉选择

根据需要选择

选择你要的"化妆风格",比如动漫风、写实风等

从xlabs/loras文件夹中选择LoRA文件

选择"anime_style.safetensors"让AI画动漫风格

strength_model

strength_model

浮点数

0.8-1.2

控制"化妆"的浓淡程度,数值越大风格越明显

LoRA权重强度,影响风格应用程度

设置1.0是标准强度,1.5会让风格更夸张

3.2 Load Flux ControlNet(加载 Flux 控制网络)

这个节点就像一个"画图助手",帮你准备控制图片生成的工具。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model_name

model_name

下拉选择

flux-dev

选择你要用的基础模型版本,就像选择画布的类型

FLUX模型的版本选择

一般选"flux-dev",如果显存小选"flux-dev-fp8"

controlnet_path

controlnet_path

下拉选择

根据需要选择

选择控制方式,比如用线稿控制、用深度图控制等

从xlabs/controlnets文件夹选择ControlNet模型

选择"canny.safetensors"用线稿控制生成

3.3 Apply Flux ControlNet(应用 Flux 控制网络)

这个节点就像"按图施工",让 AI 严格按照你提供的参考图来画画。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

controlnet

controlnet

FluxControlNet类型

必填

这是你刚才准备好的"画图助手"

从Load Flux ControlNet节点输出的控制网络

连接上一个节点的输出

image

image

IMAGE类型

必填

你要AI参考的图片,就像给画家看的草图

用作控制条件的参考图像

上传一张线稿图或者深度图

strength

strength

浮点数

0.7-1.0

控制AI有多"听话",数值越大越严格按照参考图画

ControlNet的影响强度

设置0.8让AI大部分按参考图画,但保留一些创意

controlnet_condition

controlnet_condition

ControlNetCondition类型

可选

如果你想叠加多个控制条件,就连接这里

用于链接多个ControlNet条件

可以同时用线稿+深度图双重控制

3.4 Apply Advanced Flux ControlNet(应用高级 Flux 控制网络)

这个节点是"精密画图助手",可以更精确地控制在什么时候听你的指挥。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

controlnet

controlnet

FluxControlNet类型

必填

你准备好的"画图助手"

从Load Flux ControlNet节点输出的控制网络

连接Load Flux ControlNet的输出

image

image

IMAGE类型

必填

参考图片

用作控制条件的参考图像

上传你的控制图片

strength

strength

浮点数

0.7-1.0

控制的强度

ControlNet的影响强度

设置控制强度

start

start

浮点数

0.0-1.0

从什么时候开始"听指挥",0是一开始,1是最后

控制开始生效的时间点(0-1范围)

设置0.2表示生成过程20%后才开始控制

end

end

浮点数

0.0-1.0

到什么时候停止"听指挥"

控制结束生效的时间点(0-1范围)

设置0.8表示生成过程80%后就不再控制

controlnet_condition

controlnet_condition

ControlNetCondition类型

可选

叠加多个控制条件

用于链接多个ControlNet条件

可以组合多种控制方式

3.5 Xlabs Sampler(Xlabs 专业采样器)

这个节点就像一个"专业冲印师",负责把AI的想法变成最终的图片。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要用来画画的AI模型

经过处理的FLUX模型

连接加载了LoRA或其他效果的模型

conditioning

conditioning

CONDITIONING类型

必填

告诉AI你想要什么的"指令书"

正面提示词的编码结果

连接你的提示词编码器

neg_conditioning

neg_conditioning

CONDITIONING类型

必填

告诉AI你不想要什么的"禁止清单"

负面提示词的编码结果

连接负面提示词编码器

noise_seed

noise_seed

整数

随机或固定

随机数种子,就像掷骰子的起始点

控制随机性的种子值

用固定数字可以重现相同结果

steps

steps

整数

20-50

AI"思考"多少次,次数越多越精细但越慢

采样步数,影响生成质量和时间

20步够用,50步质量更好但慢

timestep_to_start_cfg

timestep_to_start_cfg

整数

1-5

从第几步开始严格按照你的要求画

CFG引导开始的时间步

设置1表示从第1步就开始引导

true_gs

true_gs

浮点数

3.0-7.0

控制AI有多"听话",数值越大越按你说的画

CFG引导强度

3.0比较自然,7.0更严格按提示词

image_to_image_strength

image_to_image_strength

浮点数

0.0-1.0

如果有参考图,控制参考程度

图生图的强度

0.0完全按参考图,1.0完全重新画

denoise_strength

denoise_strength

浮点数

0.8-1.0

控制"重画"程度,1.0是完全重画

去噪强度,控制生成程度

0.8保留更多原图特征

latent_image

latent_image

LATENT类型

可选

如果要基于现有图片修改,就连接这里

输入的潜在空间图像

图生图时连接现有图片

controlnet_condition

controlnet_condition

ControlNetCondition类型

可选

如果要用控制网络,就连接这里

ControlNet的控制条件

连接Apply ControlNet的输出

3.6 Load Flux IPAdapter(加载 Flux 图片适配器)

这个节点就像一个"风格识别器",帮你准备从参考图片中学习风格的工具。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

ipadatper

ipadatper

下拉选择

根据需要选择

选择图片风格学习器的类型

从xlabs/ipadapters文件夹选择IP-Adapter模型

选择"ip-adapter-flux.safetensors"

clip_vision

clip_vision

下拉选择

model.safetensors

选择图片"理解器",用来分析参考图片

CLIP视觉编码器模型

选择OpenAI的CLIP模型

provider

provider

下拉选择

GPU

选择用什么来运行,GPU更快

计算设备选择

有独显选GPU,没有选CPU

3.7 Apply Flux IPAdapter(应用 Flux 图片适配器)

这个节点就像"风格模仿师",让AI学习参考图片的风格来画新图。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要"教"风格的AI模型

输入的FLUX模型

连接你的基础模型

ip_adapter_flux

ip_adapter_flux

IP_ADAPTER_FLUX类型

必填

刚才准备好的"风格识别器"

从Load Flux IPAdapter输出的适配器

连接上一个节点的输出

image

image

IMAGE类型

必填

你想让AI学习的风格参考图

用作风格参考的图像

上传一张你喜欢风格的图片

ip_scale

ip_scale

浮点数

0.5-1.0

控制AI学习风格的"用力程度"

IP-Adapter的影响强度

0.93是推荐值,太高可能过度模仿

3.8 Apply Advanced Flux IPAdapter(应用高级 Flux 图片适配器)

这个节点是"高级风格模仿师",可以更精细地控制风格学习的过程。

参数详解:

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要处理的AI模型

输入的FLUX模型

连接基础模型

ip_adapter_flux

ip_adapter_flux

IP_ADAPTER_FLUX类型

必填

风格识别器

IP-Adapter模型

连接Load节点输出

image

image

IMAGE类型

必填

风格参考图片

用作风格参考的图像

上传参考图片

begin_strength

begin_strength

浮点数

0.0-1.0

开始时的风格强度

起始影响强度

设置0.0表示开始时不受风格影响

end_strength

end_strength

浮点数

0.0-1.0

结束时的风格强度

结束影响强度

设置1.0表示最后完全按风格生成

smothing_type

smothing_type

下拉选择

Linear

选择风格强度变化的方式

强度变化的数学模型

Linear是线性变化,Sigmoid是S型曲线

4. 使用技巧和建议

4.1 新手入门建议

  • 从简单开始:先试试单独使用LoRA节点,熟悉基本操作

  • 参数保守:刚开始时各种强度参数不要设太高,0.8左右比较安全

  • 逐步叠加:不要一次性用太多效果,先用一个效果满意了再加其他的

4.2 进阶使用技巧

  • 组合使用:可以同时使用LoRA + ControlNet + IP Adapter,创造独特效果

  • 强度调节:不同的图片类型需要不同的强度,人物图通常需要较低强度

  • 时间控制:使用Advanced版本的节点可以精确控制效果在生成过程中的时机

4.3 性能优化建议

  • 显存管理:如果显存不够,可以使用flux-dev-fp8版本

  • 批量处理:相同设置的图片可以批量生成,提高效率

  • 模型缓存:频繁使用的模型会被缓存,第二次使用会更快

5. 常见问题解答

Q1: 为什么我的节点列表里没有XLabsNodes?

A: 检查插件是否正确安装,确保运行了python setup.py,然后重启ComfyUI。

Q2: 加载LoRA时提示找不到文件?

A: 确保LoRA文件放在ComfyUI/models/xlabs/loras文件夹中,并且文件格式正确(.safetensors或.pt)。

Q3: 生成图片时显存不够怎么办?

A: 可以使用flux-dev-fp8模型,或者在启动ComfyUI时加上--lowvram参数。

Q4: ControlNet效果不明显怎么办?

A: 尝试提高strength参数,或者检查输入图片是否符合ControlNet的要求(比如Canny需要线稿图)。

Q5: IP Adapter的风格学习效果不好?

A: 确保参考图片风格明显,调整ip_scale参数,通常0.7-0.95之间效果较好。

6. 总结

这个X-Flux ComfyUI插件为FLUX模型提供了强大的扩展功能,通过8个专业节点,你可以:

  1. 风格控制:使用LoRA改变绘画风格

  2. 结构控制:使用ControlNet精确控制图片结构

  3. 风格参考:使用IP Adapter学习参考图片的风格

  4. 专业采样:使用专门的采样器获得更好的生成效果

无论你是新手还是专业用户,这个插件都能帮你创造出更加精彩的AI艺术作品。记住,熟练掌握需要时间和练习,不要急于求成,慢慢探索每个参数的效果,你会发现无限的创作可能!

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号