ComfyUI 魔法书 Logo
🏠 首页
👥 加群
🔥 报错不求人
😎 大帅比
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 🔥 报错不求人 😎 大帅比
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. ComfyUI插件layerdiffuse使用教程 轻松掌握AI绘画分层技巧

ComfyUI插件layerdiffuse使用教程 轻松掌握AI绘画分层技巧

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-06-27
  • 24 次阅读
编程界的小学生
编程界的小学生

【版权严正声明】

本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。

未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。

任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。

侵权必究,切勿以身试法!

1. 插件简介

插件地址: https://github.com/huchenlei/ComfyUI-layerdiffuse

这个插件是一个超级厉害的工具,专门用来生成透明背景的图片!想象一下,你平时用美图秀秀抠图是不是很麻烦?这个插件就像一个智能抠图大师,可以直接生成带透明背景的图片,或者把前景和背景分离开来。

主要功能:

  • 直接生成透明背景的图片(就像PNG格式那种透明的)

  • 把一张图片分成前景和背景两部分

  • 给你一个前景,帮你生成配套的背景

  • 给你一个背景,帮你生成配套的前景

  • 把前景和背景合成一张完整的图片

简单说,这就是一个专业的"图层处理大师",让你的图片创作更加灵活!

2. 如何安装

方法一:直接下载

  1. 去 https://github.com/huchenlei/ComfyUI-layerdiffuse 下载整个文件夹

  2. 把下载的文件夹放到你的 ComfyUI 安装目录下的 custom_nodes 文件夹里

方法二:用命令行(推荐)

cd custom_nodes
git clone https://github.com/huchenlei/ComfyUI-layerdiffuse.git

安装依赖

安装完插件后,还需要安装一些必要的组件:

pip install -r requirements.txt

3. 节点详细解析

当前插件包含节点总数:8个 本次输出节点数:8个 剩余未输出节点数:0个

3.1 LayeredDiffusionApply 节点(生成透明前景)

这个节点就像一个"透明背景生成器",专门用来生成带透明背景的前景图片。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

这是你要用的AI画图模型,就像选择画笔一样

输入的Stable Diffusion模型

连接你的checkpoint模型节点

config

config

下拉选择

根据模型选择

选择处理方式,就像选择滤镜模式

选择不同的层扩散配置

SDXL用SDXL配置,SD1.5用SD15配置

weight

weight

0.0-3.0

1.0

控制透明效果的强度,就像调节透明度

LoRA权重强度

1.0是标准强度,可以微调

config选项说明:

  • SDXL, Attention Injection:适用于SDXL模型,注意力注入方式

  • SDXL, Conv Injection:适用于SDXL模型,卷积注入方式

  • SD15, Attention Injection, attn_sharing:适用于SD1.5模型,带注意力共享

3.2 LayeredDiffusionJointApply 节点(一次生成三张图)

这个节点就像一个"三合一生成器",一次性给你生成前景、背景、合成图三张图片。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要用的AI画图模型

输入的Stable Diffusion模型

连接你的checkpoint模型节点

config

config

下拉选择

SD15配置

选择处理配置,目前只支持SD1.5

层扩散联合生成配置

选择SD15的joint配置

fg_cond

fg_cond

CONDITIONING类型

可选

前景的描述词,告诉AI前景要画什么

前景条件编码

连接正面提示词编码器

bg_cond

bg_cond

CONDITIONING类型

可选

背景的描述词,告诉AI背景要画什么

背景条件编码

连接正面提示词编码器

blended_cond

blended_cond

CONDITIONING类型

可选

合成图的描述词,告诉AI整体要什么效果

混合图像条件编码

连接正面提示词编码器

3.3 LayeredDiffusionCondApply 节点(条件生成)

这个节点就像一个"智能配对器",给它一个前景,它帮你生成背景;给它一个背景,它帮你生成前景。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要用的AI画图模型

输入的Stable Diffusion模型

连接你的checkpoint模型节点

cond

cond

CONDITIONING类型

必填

正面描述词,告诉AI你想要什么

正向条件编码

连接正面提示词编码器

uncond

uncond

CONDITIONING类型

必填

负面描述词,告诉AI你不想要什么

负向条件编码

连接负面提示词编码器

latent

latent

LATENT类型

必填

输入的图片数据,就像原材料

潜在空间表示

连接VAE编码器或空白潜在空间

config

config

下拉选择

根据需求选择

选择是前景生成背景还是背景生成前景

层扩散条件配置

FG模式或BG模式

weight

weight

0.0-3.0

1.0

控制效果强度,就像调节力度

LoRA权重强度

1.0是标准强度

config选项说明:

  • SDXL, Foreground:用前景生成背景

  • SDXL, Background:用背景生成前景

3.4 LayeredDiffusionCondJointApply 节点(条件联合生成)

这个节点就像一个"二合一生成器",给它一张图片,它能同时生成配对的图片和合成效果。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要用的AI画图模型

输入的Stable Diffusion模型

连接你的checkpoint模型节点

image

image

IMAGE类型

必填

输入的参考图片,就像给AI看的样本

输入图像

连接图片加载器

config

config

下拉选择

根据需求选择

选择处理模式

层扩散条件联合配置

FG模式或BG模式

cond

cond

CONDITIONING类型

可选

描述词,告诉AI你想要什么效果

条件编码

连接正面提示词编码器

blended_cond

blended_cond

CONDITIONING类型

可选

合成图的描述词

混合图像条件编码

连接正面提示词编码器

config选项说明:

  • SD15, attn_sharing, Batch size (2N), Foreground:前景模式,批次大小为2N

  • SD15, attn_sharing, Batch size (2N), Background:背景模式,批次大小为2N

3.5 LayeredDiffusionDiffApply 节点(差异提取)

这个节点就像一个"图片减法器",能从合成图中减去一部分,得到另一部分。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

MODEL类型

必填

你要用的AI画图模型

输入的Stable Diffusion模型

连接你的checkpoint模型节点

cond

cond

CONDITIONING类型

必填

正面描述词

正向条件编码

连接正面提示词编码器

uncond

uncond

CONDITIONING类型

必填

负面描述词

负向条件编码

连接负面提示词编码器

blended_latent

blended_latent

LATENT类型

必填

合成图的数据,就像完整的拼图

混合图像的潜在表示

连接合成图的VAE编码

latent

latent

LATENT类型

必填

已知部分的数据,就像拼图的一块

已知图层的潜在表示

连接已知图层的VAE编码

config

config

下拉选择

根据需求选择

选择提取模式

层扩散差异配置

FG模式或BG模式

weight

weight

0.0-3.0

1.0

控制提取效果的强度

LoRA权重强度

1.0是标准强度

config选项说明:

  • SDXL, Foreground:从合成图+背景中提取前景

  • SDXL, Background:从合成图+前景中提取背景

3.6 LayeredDiffusionDecode 节点(透明解码器)

这个节点就像一个"透明度解析器",把AI生成的数据转换成真正的透明图片。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

samples

samples

LATENT类型

必填

AI生成的原始数据,就像未冲洗的胶卷

潜在空间采样

连接采样器输出

images

images

IMAGE类型

必填

生成的图片,就像冲洗好的照片

解码后的图像

连接VAE解码器输出

sd_version

sd_version

下拉选择

根据模型选择

选择你用的AI模型版本

Stable Diffusion版本

SDXL或SD15

sub_batch_size

sub_batch_size

1-4096

16

一次处理多少张图,就像洗照片的批次大小

子批次处理大小

显存小就用小数值

sd_version选项说明:

  • SD15:适用于Stable Diffusion 1.5模型

  • SDXL:适用于Stable Diffusion XL模型

3.7 LayeredDiffusionDecodeRGBA 节点(RGBA解码器)

这个节点就像一个"透明图片制作器",直接输出带透明通道的完整图片。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

samples

samples

LATENT类型

必填

AI生成的原始数据

潜在空间采样

连接采样器输出

images

images

IMAGE类型

必填

生成的图片

解码后的图像

连接VAE解码器输出

sd_version

sd_version

下拉选择

根据模型选择

选择AI模型版本

Stable Diffusion版本

SDXL或SD15

sub_batch_size

sub_batch_size

1-4096

16

一次处理的图片数量

子批次处理大小

根据显存调整

3.8 LayeredDiffusionDecodeSplit 节点(分割解码器)

这个节点就像一个"图片分拣器",能把一批图片按规律分成几组分别处理。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

samples

samples

LATENT类型

必填

AI生成的原始数据

潜在空间采样

连接采样器输出

images

images

IMAGE类型

必填

生成的图片

解码后的图像

连接VAE解码器输出

frames

frames

2-3

2

每几张图做一次透明处理,就像设置间隔

帧间隔数

2表示每2张图处理1张

sd_version

sd_version

下拉选择

根据模型选择

选择AI模型版本

Stable Diffusion版本

SDXL或SD15

sub_batch_size

sub_batch_size

1-4096

16

一次处理的图片数量

子批次处理大小

根据显存调整

4. 使用技巧和建议

4.1 基础使用技巧

  • 图片尺寸要求:生成的图片尺寸必须是64的倍数,比如512x512、768x768、1024x1024等

  • 模型选择:SDXL模型效果更好,但需要更多显存;SD1.5模型速度更快,显存要求低

  • 权重调节:weight参数建议从1.0开始,效果不理想再微调

4.2 工作流程建议

  1. 生成透明前景:使用LayeredDiffusionApply + LayeredDiffusionDecodeRGBA

  2. 前景配背景:使用LayeredDiffusionCondApply,选择Foreground模式

  3. 背景配前景:使用LayeredDiffusionCondApply,选择Background模式

  4. 提取分离:使用LayeredDiffusionDiffApply进行前景背景分离

4.3 性能优化

  • 显存不足:降低sub_batch_size参数

  • 速度优化:使用SD1.5模型而不是SDXL

  • 质量优化:使用SDXL模型,适当调整weight参数

5. 常见问题解答

Q1:为什么生成的图片没有透明效果?

A1: 检查以下几点:

  • 图片尺寸是否为64的倍数

  • 是否使用了正确的解码节点(LayeredDiffusionDecode或LayeredDiffusionDecodeRGBA)

  • sd_version参数是否与你的模型匹配

Q2:显存不够用怎么办?

A2:

  • 降低sub_batch_size参数到8或更小

  • 使用SD1.5模型代替SDXL

  • 减小生成图片的尺寸

Q3:生成的透明图片边缘不自然?

A3:

  • 调整weight参数,尝试0.8-1.2之间的值

  • 检查提示词是否清晰描述了前景对象

  • 尝试不同的config配置

Q4:Joint模式为什么只支持SD1.5?

A4: 这是插件的当前限制,SDXL的Joint模式还在开发中。如果需要使用Joint功能,请使用SD1.5模型。

Q5:如何获得最佳的透明效果?

A5:

  • 使用清晰、具体的提示词描述前景对象

  • 避免复杂的背景描述

  • 使用高质量的checkpoint模型

  • 适当调整采样步数和CFG值

6. 高级应用技巧

6.1 批量处理

使用LayeredDiffusionDecodeSplit节点可以批量处理多张图片,提高工作效率。

6.2 质量控制

对于背景提取,可以参考原版实现中的"Stop at 0.5"技巧,通过img2img二次处理提升质量。

6.3 创意应用

  • 制作游戏素材:生成透明的角色、道具

  • 设计元素:创建透明的装饰图案

  • 合成创作:分别生成前景和背景,再自由组合

7. 总结

ComfyUI-layerdiffuse插件是一个功能强大的图层处理工具,通过8个不同的节点,可以实现从简单的透明背景生成到复杂的图层分离与合成。掌握这些节点的使用方法,你就能在图片创作中获得更大的灵活性和创造力。

记住最重要的几点:

  • 图片尺寸必须是64的倍数

  • 选择正确的模型版本配置

  • 合理调整参数以获得最佳效果

  • 根据显存情况调整批次大小

希望这个教程能帮助你更好地使用这个强大的插件!

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号