【版权严正声明】
本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。
未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。
任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。
侵权必究,切勿以身试法!
1. 插件简介
插件地址: https://github.com/XLabs-AI/x-flux-comfyui
这个插件是专门为 ComfyUI 设计的 FLUX 模型增强工具包。它就像给你的 FLUX 模型装上了各种神奇的配件,让你能够:
加载特殊风格包(LoRA):就像给画家换不同的画笔,让 AI 画出不同风格的图片
精确控制图片生成(ControlNet):就像给 AI 一个参考线稿,让它按照你的要求画图
图片风格参考(IP Adapter):就像给 AI 看一张参考图,让它模仿这张图的风格来画新图
专业采样器:就像一个更精密的"冲洗照片"工具,让生成的图片质量更好
2. 如何安装
通用安装方法:
找到 ComfyUI 文件夹
下载插件
安装依赖
重启 ComfyUI
注意: 第一次启动后,ComfyUI 会自动创建这些文件夹:
ComfyUI/models/xlabs/loras - 放风格包文件
ComfyUI/models/xlabs/controlnets - 放控制网络文件
ComfyUI/models/xlabs/ipadapters - 放图片适配器文件
3. 节点详细解析
本插件总共包含 8 个节点,现在逐一详细解析:
3.1 Load Flux LoRA(加载 Flux 风格包)
这个节点就像一个"风格化妆师",给你的 AI 模型换上不同的绘画风格。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | MODEL类型 | 必填 | 这是你要"化妆"的基础模型,就像化妆前的素颜脸 | 输入的FLUX基础模型 | 连接你的FLUX模型加载器 |
lora_name | lora_name | 下拉选择 | 根据需要选择 | 选择你要的"化妆风格",比如动漫风、写实风等 | 从xlabs/loras文件夹中选择LoRA文件 | 选择"anime_style.safetensors"让AI画动漫风格 |
strength_model | strength_model | 浮点数 | 0.8-1.2 | 控制"化妆"的浓淡程度,数值越大风格越明显 | LoRA权重强度,影响风格应用程度 | 设置1.0是标准强度,1.5会让风格更夸张 |
3.2 Load Flux ControlNet(加载 Flux 控制网络)
这个节点就像一个"画图助手",帮你准备控制图片生成的工具。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model_name | model_name | 下拉选择 | flux-dev | 选择你要用的基础模型版本,就像选择画布的类型 | FLUX模型的版本选择 | 一般选"flux-dev",如果显存小选"flux-dev-fp8" |
controlnet_path | controlnet_path | 下拉选择 | 根据需要选择 | 选择控制方式,比如用线稿控制、用深度图控制等 | 从xlabs/controlnets文件夹选择ControlNet模型 | 选择"canny.safetensors"用线稿控制生成 |
3.3 Apply Flux ControlNet(应用 Flux 控制网络)
这个节点就像"按图施工",让 AI 严格按照你提供的参考图来画画。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
controlnet | controlnet | FluxControlNet类型 | 必填 | 这是你刚才准备好的"画图助手" | 从Load Flux ControlNet节点输出的控制网络 | 连接上一个节点的输出 |
image | image | IMAGE类型 | 必填 | 你要AI参考的图片,就像给画家看的草图 | 用作控制条件的参考图像 | 上传一张线稿图或者深度图 |
strength | strength | 浮点数 | 0.7-1.0 | 控制AI有多"听话",数值越大越严格按照参考图画 | ControlNet的影响强度 | 设置0.8让AI大部分按参考图画,但保留一些创意 |
controlnet_condition | controlnet_condition | ControlNetCondition类型 | 可选 | 如果你想叠加多个控制条件,就连接这里 | 用于链接多个ControlNet条件 | 可以同时用线稿+深度图双重控制 |
3.4 Apply Advanced Flux ControlNet(应用高级 Flux 控制网络)
这个节点是"精密画图助手",可以更精确地控制在什么时候听你的指挥。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
controlnet | controlnet | FluxControlNet类型 | 必填 | 你准备好的"画图助手" | 从Load Flux ControlNet节点输出的控制网络 | 连接Load Flux ControlNet的输出 |
image | image | IMAGE类型 | 必填 | 参考图片 | 用作控制条件的参考图像 | 上传你的控制图片 |
strength | strength | 浮点数 | 0.7-1.0 | 控制的强度 | ControlNet的影响强度 | 设置控制强度 |
start | start | 浮点数 | 0.0-1.0 | 从什么时候开始"听指挥",0是一开始,1是最后 | 控制开始生效的时间点(0-1范围) | 设置0.2表示生成过程20%后才开始控制 |
end | end | 浮点数 | 0.0-1.0 | 到什么时候停止"听指挥" | 控制结束生效的时间点(0-1范围) | 设置0.8表示生成过程80%后就不再控制 |
controlnet_condition | controlnet_condition | ControlNetCondition类型 | 可选 | 叠加多个控制条件 | 用于链接多个ControlNet条件 | 可以组合多种控制方式 |
3.5 Xlabs Sampler(Xlabs 专业采样器)
这个节点就像一个"专业冲印师",负责把AI的想法变成最终的图片。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | MODEL类型 | 必填 | 你要用来画画的AI模型 | 经过处理的FLUX模型 | 连接加载了LoRA或其他效果的模型 |
conditioning | conditioning | CONDITIONING类型 | 必填 | 告诉AI你想要什么的"指令书" | 正面提示词的编码结果 | 连接你的提示词编码器 |
neg_conditioning | neg_conditioning | CONDITIONING类型 | 必填 | 告诉AI你不想要什么的"禁止清单" | 负面提示词的编码结果 | 连接负面提示词编码器 |
noise_seed | noise_seed | 整数 | 随机或固定 | 随机数种子,就像掷骰子的起始点 | 控制随机性的种子值 | 用固定数字可以重现相同结果 |
steps | steps | 整数 | 20-50 | AI"思考"多少次,次数越多越精细但越慢 | 采样步数,影响生成质量和时间 | 20步够用,50步质量更好但慢 |
timestep_to_start_cfg | timestep_to_start_cfg | 整数 | 1-5 | 从第几步开始严格按照你的要求画 | CFG引导开始的时间步 | 设置1表示从第1步就开始引导 |
true_gs | true_gs | 浮点数 | 3.0-7.0 | 控制AI有多"听话",数值越大越按你说的画 | CFG引导强度 | 3.0比较自然,7.0更严格按提示词 |
image_to_image_strength | image_to_image_strength | 浮点数 | 0.0-1.0 | 如果有参考图,控制参考程度 | 图生图的强度 | 0.0完全按参考图,1.0完全重新画 |
denoise_strength | denoise_strength | 浮点数 | 0.8-1.0 | 控制"重画"程度,1.0是完全重画 | 去噪强度,控制生成程度 | 0.8保留更多原图特征 |
latent_image | latent_image | LATENT类型 | 可选 | 如果要基于现有图片修改,就连接这里 | 输入的潜在空间图像 | 图生图时连接现有图片 |
controlnet_condition | controlnet_condition | ControlNetCondition类型 | 可选 | 如果要用控制网络,就连接这里 | ControlNet的控制条件 | 连接Apply ControlNet的输出 |
3.6 Load Flux IPAdapter(加载 Flux 图片适配器)
这个节点就像一个"风格识别器",帮你准备从参考图片中学习风格的工具。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
ipadatper | ipadatper | 下拉选择 | 根据需要选择 | 选择图片风格学习器的类型 | 从xlabs/ipadapters文件夹选择IP-Adapter模型 | 选择"ip-adapter-flux.safetensors" |
clip_vision | clip_vision | 下拉选择 | model.safetensors | 选择图片"理解器",用来分析参考图片 | CLIP视觉编码器模型 | 选择OpenAI的CLIP模型 |
provider | provider | 下拉选择 | GPU | 选择用什么来运行,GPU更快 | 计算设备选择 | 有独显选GPU,没有选CPU |
3.7 Apply Flux IPAdapter(应用 Flux 图片适配器)
这个节点就像"风格模仿师",让AI学习参考图片的风格来画新图。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | MODEL类型 | 必填 | 你要"教"风格的AI模型 | 输入的FLUX模型 | 连接你的基础模型 |
ip_adapter_flux | ip_adapter_flux | IP_ADAPTER_FLUX类型 | 必填 | 刚才准备好的"风格识别器" | 从Load Flux IPAdapter输出的适配器 | 连接上一个节点的输出 |
image | image | IMAGE类型 | 必填 | 你想让AI学习的风格参考图 | 用作风格参考的图像 | 上传一张你喜欢风格的图片 |
ip_scale | ip_scale | 浮点数 | 0.5-1.0 | 控制AI学习风格的"用力程度" | IP-Adapter的影响强度 | 0.93是推荐值,太高可能过度模仿 |
3.8 Apply Advanced Flux IPAdapter(应用高级 Flux 图片适配器)
这个节点是"高级风格模仿师",可以更精细地控制风格学习的过程。
参数详解:
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | MODEL类型 | 必填 | 你要处理的AI模型 | 输入的FLUX模型 | 连接基础模型 |
ip_adapter_flux | ip_adapter_flux | IP_ADAPTER_FLUX类型 | 必填 | 风格识别器 | IP-Adapter模型 | 连接Load节点输出 |
image | image | IMAGE类型 | 必填 | 风格参考图片 | 用作风格参考的图像 | 上传参考图片 |
begin_strength | begin_strength | 浮点数 | 0.0-1.0 | 开始时的风格强度 | 起始影响强度 | 设置0.0表示开始时不受风格影响 |
end_strength | end_strength | 浮点数 | 0.0-1.0 | 结束时的风格强度 | 结束影响强度 | 设置1.0表示最后完全按风格生成 |
smothing_type | smothing_type | 下拉选择 | Linear | 选择风格强度变化的方式 | 强度变化的数学模型 | Linear是线性变化,Sigmoid是S型曲线 |
4. 使用技巧和建议
4.1 新手入门建议
从简单开始:先试试单独使用LoRA节点,熟悉基本操作
参数保守:刚开始时各种强度参数不要设太高,0.8左右比较安全
逐步叠加:不要一次性用太多效果,先用一个效果满意了再加其他的
4.2 进阶使用技巧
组合使用:可以同时使用LoRA + ControlNet + IP Adapter,创造独特效果
强度调节:不同的图片类型需要不同的强度,人物图通常需要较低强度
时间控制:使用Advanced版本的节点可以精确控制效果在生成过程中的时机
4.3 性能优化建议
5. 常见问题解答
Q1: 为什么我的节点列表里没有XLabsNodes?
A: 检查插件是否正确安装,确保运行了python setup.py,然后重启ComfyUI。
Q2: 加载LoRA时提示找不到文件?
A: 确保LoRA文件放在ComfyUI/models/xlabs/loras文件夹中,并且文件格式正确(.safetensors或.pt)。
Q3: 生成图片时显存不够怎么办?
A: 可以使用flux-dev-fp8模型,或者在启动ComfyUI时加上--lowvram参数。
Q4: ControlNet效果不明显怎么办?
A: 尝试提高strength参数,或者检查输入图片是否符合ControlNet的要求(比如Canny需要线稿图)。
Q5: IP Adapter的风格学习效果不好?
A: 确保参考图片风格明显,调整ip_scale参数,通常0.7-0.95之间效果较好。
6. 总结
这个X-Flux ComfyUI插件为FLUX模型提供了强大的扩展功能,通过8个专业节点,你可以:
风格控制:使用LoRA改变绘画风格
结构控制:使用ControlNet精确控制图片结构
风格参考:使用IP Adapter学习参考图片的风格
专业采样:使用专门的采样器获得更好的生成效果
无论你是新手还是专业用户,这个插件都能帮你创造出更加精彩的AI艺术作品。记住,熟练掌握需要时间和练习,不要急于求成,慢慢探索每个参数的效果,你会发现无限的创作可能!