ComfyUI 插件保姆级教程:LayerStyle Advance 节点详解
1. 插件简介
插件地址: https://github.com/chflame163/ComfyUI_LayerStyle_Advance
这个插件就像一个"超级AI工具箱",专门为那些想要用AI做各种高级图像处理的朋友们准备的。它包含了大量强大的功能,从图像抠图、背景移除,到AI对话、图像生成,应有尽有!
能给我们带来什么效果:
- 🎭 智能抠图:就像有个专业PS师傅帮你抠图,一键去背景
- 🤖 AI对话:可以和各种AI模型聊天,比如Google Gemini、DeepSeek等
- 📸 图像识别:能识别图片中的物体、人脸、文字等
- 🎨 图像处理:各种滤镜、特效、颜色调整
- 💾 增强保存:比普通保存更强大,支持水印、格式转换等
- 🔍 目标检测:能找到图片中的特定物体并标记出来
- 📝 提示词生成:帮你生成更好的AI绘画提示词
支持的AI模型: Google Gemini、DeepSeek、智谱GLM4、Florence2、SAM2、BiRefNet等几十种先进模型
2. 如何安装
方法一:通过 ComfyUI Manager 安装(推荐)
- 打开 ComfyUI Manager(就像手机上的应用商店)
- 搜索 "LayerStyle Advance"
- 点击安装,等待完成即可
方法二:手动安装
- 打开终端(Windows 用户打开命令提示符)
- 进入 ComfyUI 的 custom_nodes 文件夹
- 运行以下命令:
git clone https://github.com/chflame163/ComfyUI_LayerStyle_Advance.git
cd ComfyUI_LayerStyle_Advance
pip install -r requirements.txt
安装模型文件
这个插件需要下载很多AI模型文件,可以从以下地址下载:
- 国内用户:百度网盘 或 夸克网盘
- 海外用户:HuggingFace
下载后放到 ComfyUI/models 对应的文件夹中。
3. 节点详细解析
3.1 图像拼贴类节点
3.1.1 Collage 节点 - 图像拼贴器
这个节点就像一个"智能拼图机",能把多张图片随机拼接成一张大图。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 输入图片 | images | IMAGE类型 | 必填 | 要拼接的图片,就像拼图的小块 | 输入需要拼贴的图像批次 | 连接多张图片的输出 |
| 画布宽度 | canvas_width | 512-8192 | 2048 | 最终拼图的宽度,就像画布的宽度 | 输出图像的像素宽度 | 根据需要设置,2048适合大多数情况 |
| 画布高度 | canvas_height | 512-8192 | 2048 | 最终拼图的高度,就像画布的高度 | 输出图像的像素高度 | 根据需要设置,2048适合大多数情况 |
| 边框宽度 | border_width | 0-20 | 2 | 图片之间的间隙,就像相框的边框 | 图像间的边距宽度百分比 | 2表示适中的间距 |
| 圆角半径 | rounded_rect_radius | 0-100 | 8 | 图片的圆角程度,0是直角,100是很圆 | 矩形区域的圆角半径 | 8给图片一个轻微的圆角效果 |
| 均匀度 | uniformity | 0-1 | 0.5 | 分割的随机程度,0很规整,1很随机 | 控制分割区域大小的随机性 | 0.5平衡规整和随机 |
| 背景颜色 | background_color | 颜色代码 | #FFFFFF | 背景的颜色,就像画布的底色 | 背景填充颜色的十六进制值 | #FFFFFF是白色,#000000是黑色 |
| 随机种子 | seed | 0-最大整数 | 0 | 随机数种子,相同种子产生相同效果 | 控制随机分割的种子值 | 固定种子可重现相同布局 |
| Florence2模型 | florence2_model | FLORENCE2类型 | 可选 | AI识别模型,用于智能裁剪 | 用于目标检测的Florence2模型 | 连接Florence2模型加载器 |
| 目标提示词 | object_prompt | 字符串 | face | 要识别的目标,如人脸、物体等 | 目标检测的提示词 | "face"识别人脸,"car"识别汽车 |
3.2 AI对话类节点
3.2.1 Gemini 节点 - Google AI对话
这个节点就像一个"AI助手",可以和Google的Gemini AI进行对话,支持文字和图片输入。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | model | 模型列表 | gemini-1.5-flash | 选择AI大脑的版本,就像选择不同的专家 | 指定使用的Gemini模型版本 | flash版本速度快,pro版本更聪明 |
| 最大输出长度 | max_output_tokens | 1-8192 | 4096 | AI回答的最大字数,就像限制回答长度 | 生成文本的最大token数量 | 4096够用于大多数对话 |
| 创造性温度 | temperature | 0-2 | 0.5 | AI回答的创造性,0很严谨,2很随意 | 控制生成文本的随机性 | 0.5平衡准确性和创造性 |
| 字数限制 | words_limit | 8-2048 | 200 | 希望AI回答的字数范围 | 期望的回复字数限制 | 200字适合大多数问答 |
| 回复语言 | response_language | 语言列表 | zh-CN | AI用什么语言回答,就像选择说话的语言 | 指定回复的语言类型 | zh-CN是中文,en是英文 |
| 系统提示 | system_prompt | 多行文本 | 默认提示 | 告诉AI它的角色,就像给它一个身份设定 | 定义AI的行为和角色 | "你是一个专业的摄影师"这样设定角色 |
| 用户提示 | user_prompt | 多行文本 | 必填 | 你想问AI的问题或要求 | 用户的具体询问或指令 | "帮我分析这张图片的构图" |
| 图片1 | image_1 | IMAGE类型 | 可选 | 第一张参考图片,AI可以看图回答 | 可选的图像输入1 | 上传要分析的图片 |
| 图片2 | image_2 | IMAGE类型 | 可选 | 第二张参考图片,用于对比分析 | 可选的图像输入2 | 上传第二张对比图片 |
3.2.2 GeminiV2 节点 - Google AI对话升级版
这是Gemini节点的升级版,支持更新的模型和更多功能。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | model | 新模型列表 | gemini-2.0-flash-lite | 选择最新的AI模型版本 | 使用新版google-genai包的模型 | 2.0版本功能更强大 |
| 最大输出长度 | max_output_tokens | 1-8192 | 4096 | AI回答的最大字数限制 | 生成文本的最大token数量 | 4096够用于大多数对话 |
| 创造性温度 | temperature | 0-2 | 0.5 | 控制AI回答的随机性和创造性 | 控制生成文本的随机性 | 0.5平衡准确性和创造性 |
| 字数限制 | words_limit | 8-2048 | 200 | 期望的回答字数范围 | 期望的回复字数限制 | 200字适合大多数问答 |
| 回复语言 | response_language | 语言列表 | zh-CN | AI回复使用的语言 | 指定回复的语言类型 | zh-CN是中文,en是英文 |
| 随机种子 | seed | 0-2147483647 | 0 | 控制AI回答的随机性,相同种子产生相似回答 | 用于请求Google API的种子值 | 固定种子可获得更一致的回答 |
| 系统提示 | system_prompt | 多行文本 | 默认提示 | 设定AI的角色和行为方式 | 定义AI的行为和角色 | "你是一个专业的艺术评论家" |
| 用户提示 | user_prompt | 多行文本 | 必填 | 你的具体问题或请求 | 用户的具体询问或指令 | "请分析这张图片的艺术风格" |
| 图片1 | image_1 | IMAGE类型 | 可选 | 第一张参考图片 | 可选的图像输入1 | 上传要分析的图片 |
| 图片2 | image_2 | IMAGE类型 | 可选 | 第二张参考图片 | 可选的图像输入2 | 上传第二张对比图片 |
3.2.3 DeepSeekAPI 节点 - DeepSeek AI对话
这个节点就像一个"中文AI助手",使用DeepSeek的AI模型进行对话,支持上下文记忆。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 历史记录 | history | 任意类型 | 可选 | 之前的对话记录,让AI记住聊天内容 | 历史对话上下文 | 连接上一个DeepSeek节点的历史输出 |
| 模型选择 | model | 模型列表 | deepseek-chat | 选择DeepSeek的AI模型版本 | 指定使用的DeepSeek模型 | deepseek-chat是主要模型 |
| 最大字符数 | max_tokens | 1-4096 | 4096 | AI回答的最大字符数限制 | 生成文本的最大token数量 | 4096适合长对话 |
| 创造性温度 | temperature | 0-2 | 1.0 | 控制回答的创造性,1.0是标准值 | 控制生成文本的随机性 | 1.0是DeepSeek的默认值 |
| 核心概率 | top_p | 0-1 | 1.0 | 控制词汇选择的多样性 | 核采样参数 | 1.0使用全部词汇 |
| 存在惩罚 | presence_penalty | -2到2 | 0 | 避免重复话题的程度 | 存在惩罚参数 | 0是默认值,正值减少重复 |
| 频率惩罚 | frequency_penalty | -2到2 | 0 | 避免重复词汇的程度 | 频率惩罚参数 | 0是默认值,正值减少重复词汇 |
| 历史长度 | history_length | 1-100 | 10 | 保留多少轮对话记录 | 保留的历史对话轮数 | 10轮够用于大多数对话 |
| 系统提示 | system_prompt | 多行文本 | 默认 | 设定AI的角色和行为 | 系统级别的角色设定 | "你是一个专业的编程助手" |
| 用户提示 | user_prompt | 多行文本 | 必填 | 你想问的问题或请求 | 用户的具体询问 | "请帮我解释这段代码" |
3.3 图像保存类节点
3.3.1 SaveImagePlus 节点 - 增强图像保存器
这个节点就像一个"超级保存器",比普通保存功能强大很多,支持自定义路径、时间戳、水印等。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | images | IMAGE类型 | 必填 | 要保存的图片,就像要存档的照片 | 输入需要保存的图像数据 | 连接生成图片的节点输出 |
| 自定义路径 | custom_path | 字符串 | 空 | 保存到哪个文件夹,就像选择相册 | 自定义保存目录路径 | "D:/我的图片" 或 "%date/作品" |
| 文件名前缀 | filename_prefix | 字符串 | comfyui | 文件名的开头部分,就像给照片分类 | 文件名的前缀部分 | "风景照" 或 "人像_%time" |
| 时间戳 | timestamp | 选项列表 | None | 是否在文件名加上时间,避免重名 | 时间戳添加方式 | second精确到秒,millisecond精确到毫秒 |
| 保存格式 | format | png/jpg | png | 图片保存的格式,就像选择照片类型 | 图像文件格式 | PNG支持透明,JPG文件更小 |
| 图片质量 | quality | 10-100 | 80 | 图片的清晰度,数字越大越清晰 | 图像压缩质量 | 80平衡质量和文件大小 |
| 保存元数据 | meta_data | 真/假 | 假 | 是否保存工作流信息到图片里 | 是否保存PNG元数据 | 开启后可以从图片恢复工作流 |
| 隐形水印 | blind_watermark | 字符串 | 空 | 添加看不见的水印文字 | 不可见水印文本 | 输入版权信息或标识 |
| 保存工作流JSON | save_workflow_as_json | 真/假 | 假 | 是否同时保存工作流文件 | 是否输出独立的JSON工作流文件 | 开启后便于分享工作流 |
| 预览 | preview | 真/假 | 真 | 是否在界面显示保存的图片 | 是否显示保存预览 | 关闭可以节省界面空间 |
3.3.2 SaveImagePlusV2 节点 - 增强图像保存器V2
这是SaveImagePlus的升级版,增加了自定义文件名和DPI设置功能。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | images | IMAGE类型 | 必填 | 要保存的图片 | 输入需要保存的图像数据 | 连接生成图片的节点输出 |
| 自定义路径 | custom_path | 字符串 | 空 | 保存文件夹路径 | 自定义保存目录路径 | "D:/我的图片" 或 "%date/作品" |
| 自定义文件名 | custom_filename | 字符串 | 空 | 完整的文件名,会覆盖前缀设置 | 用户定义的完整文件名 | "我的作品_%time" 或 "portrait_001" |
| 文件名前缀 | filename_prefix | 字符串 | comfyui | 文件名前缀(当自定义文件名为空时使用) | 文件名的前缀部分 | "风景照" 或 "人像_%time" |
| 时间戳 | timestamp | 选项列表 | None | 时间戳添加方式 | 时间戳添加方式 | second精确到秒,millisecond精确到毫秒 |
| DPI设置 | dpi | 1-10000 | 96 | 图片的分辨率密度,影响打印质量 | 图像的每英寸点数 | 96适合屏幕,300适合打印 |
| 保存格式 | format | png/jpg | png | 图片保存格式 | 图像文件格式 | PNG支持透明,JPG文件更小 |
| 图片质量 | quality | 10-100 | 80 | 图片压缩质量 | 图像压缩质量 | 80平衡质量和文件大小 |
| 保存元数据 | meta_data | 真/假 | 假 | 是否保存工作流信息 | 是否保存PNG元数据 | 开启后可以从图片恢复工作流 |
| 隐形水印 | blind_watermark | 字符串 | 空 | 不可见水印文字 | 不可见水印文本 | 输入版权信息或标识 |
| 保存工作流JSON | save_workflow_as_json | 真/假 | 假 | 是否保存独立工作流文件 | 是否输出独立的JSON工作流文件 | 开启后便于分享工作流 |
| 预览 | preview | 真/假 | 真 | 是否显示保存预览 | 是否显示保存预览 | 关闭可以节省界面空间 |
3.4 智能抠图类节点
3.4.1 BiRefNetUltra 节点 - 超级背景移除器
这个节点就像一个"AI抠图大师",能够精确地移除图片背景,效果比传统抠图工具好很多。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要抠图的原始图片,就像要处理的照片 | 输入需要移除背景的图像 | 连接要处理的图片 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理的方法,就像选择不同的抠图工具 | 边缘细节处理算法 | VITMatte效果最好但较慢 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度,数字越大收缩越多 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 6 | 向外扩张边缘的程度,数字越大扩张越多 | 遮罩边缘向外膨胀的像素数 | 6适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.01 | 黑色采样的门槛,调整暗部细节 | 边缘黑色采样阈值 | 0.01保留更多暗部细节 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色采样的门槛,调整亮部细节 | 边缘白色采样阈值 | 0.99保留更多亮部细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘细化处理 | 是否启用边缘细节处理 | 关闭可以节省处理时间 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理,显卡更快 | 模型运行设备 | 有显卡选cuda,没有选cpu |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小(百万像素) | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片,太大会很慢 |
3.4.2 SegmentAnythingUltra 节点 - 智能分割器
这个节点就像一个"AI识别专家",能根据你的描述找到并分割出图片中的特定物体。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要分析的图片,就像给AI看的照片 | 输入需要分割的图像 | 连接要处理的图片 |
| SAM模型 | sam_model | 模型列表 | sam_vit_h | 分割用的AI模型,就像选择不同的专家 | Segment Anything模型选择 | vit_h精度最高但最慢 |
| 检测模型 | grounding_dino_model | 模型列表 | GroundingDINO_SwinT | 物体检测的AI模型 | Grounding DINO模型选择 | SwinT是标准选择 |
| 检测阈值 | threshold | 0-1 | 0.3 | 检测的敏感度,越低越容易检测到 | SAM检测的置信度阈值 | 0.3适合大多数情况 |
| 细节范围 | detail_range | 1-256 | 16 | 边缘细节处理的范围 | 边缘细节处理范围 | 16提供适中的细节处理 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.15 | 黑色区域的判断标准 | 边缘黑色采样阈值 | 0.15适合大多数图片 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色区域的判断标准 | 边缘白色采样阈值 | 0.99保留更多细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘优化 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
| 提示词 | prompt | 字符串 | subject | 要分割的物体描述,就像告诉AI找什么 | 目标检测的提示词 | "person"找人,"car"找车 |
| 缓存模型 | cache_model | 真/假 | 假 | 是否保持模型在内存中,加快后续处理 | 是否缓存已加载的模型 | 开启可以加快重复处理 |
3.5 AI对话类节点(续)
3.5.1 DeepSeekAPI V2 节点 - DeepSeek AI对话升级版
这是DeepSeek节点的升级版,支持阿里云和火山引擎API,提供更稳定的服务。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | model | 模型列表 | deepseek-chat | 选择不同的API服务商和模型 | 支持DeepSeek、阿里云、火山引擎API | deepseek-r1(aliyun)使用阿里云服务 |
| 超时时间 | time_out | 1-3600秒 | 300 | API请求的最长等待时间 | 请求超时限制,防止长时间等待 | 300秒=5分钟,够用于大多数请求 |
| 最大字符数 | max_tokens | 1-8192 | 4096 | AI回答的最大字符数 | 生成文本的最大token数量 | 4096适合长对话 |
| 创造性温度 | temperature | 0-2 | 1.0 | 控制回答的随机性和创造性 | 控制生成文本的随机性 | 1.0是标准值 |
| 核心概率 | top_p | 0-1 | 1.0 | 控制词汇选择的多样性 | 核采样参数 | 1.0使用全部词汇 |
| 存在惩罚 | presence_penalty | -2到2 | 0 | 避免重复话题的程度 | 存在惩罚参数 | 正值减少重复话题 |
| 频率惩罚 | frequency_penalty | -2到2 | 0 | 避免重复词汇的程度 | 频率惩罚参数 | 正值减少重复词汇 |
| 历史长度 | history_length | 1-64 | 8 | 保留多少轮对话记录 | 保留的历史对话轮数 | 8轮够用于大多数对话 |
| 系统提示 | system_prompt | 多行文本 | 默认 | 设定AI的角色和行为 | 系统级别的角色设定 | "你是一个专业的翻译助手" |
| 用户提示 | user_prompt | 多行文本 | 必填 | 你想问的问题或请求 | 用户的具体询问 | "请翻译这段文字" |
| 历史记录 | history | DEEPSEEK_HISTORY类型 | 可选 | 之前的对话记录 | 历史对话上下文 | 连接上一个节点的历史输出 |
3.5.2 ZhipuGLM4 节点 - 智谱AI文本对话
这个节点就像一个"中文AI专家",使用智谱的GLM4模型进行中文对话。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | model | 模型列表 | GLM-4-Flash | 选择智谱的AI模型版本 | 指定使用的GLM4模型 | GLM-4-Flash是免费模型 |
| 用户提示 | user_prompt | 多行文本 | 必填 | 你想问AI的问题 | 用户的具体询问 | "法国的首都在哪里?" |
| 历史长度 | history_length | 1-64 | 8 | 保留多少轮对话记录 | 保留的历史对话轮数 | 8轮适合大多数对话 |
| 历史记录 | history | GLM4_HISTORY类型 | 可选 | 之前的对话记录 | 历史对话上下文 | 连接上一个GLM4节点的历史输出 |
3.5.3 ZhipuGLM4V 节点 - 智谱AI视觉对话
这个节点就像一个"能看图说话的AI",可以分析图片并回答相关问题。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要分析的图片 | 输入需要分析的图像 | 上传要让AI看的图片 |
| 模型选择 | model | 模型列表 | glm-4v-flash | 选择视觉模型版本 | 指定使用的GLM4V模型 | glm-4v-flash是免费模型 |
| 用户提示 | user_prompt | 多行文本 | describe this image | 关于图片的问题 | 用户对图像的询问 | "描述这张图片的内容" |
3.6 智能抠图类节点(续)
3.6.1 BiRefNetUltraV2 节点 - 超级背景移除器V2
这是BiRefNet的升级版,支持最新的BiRefNet模型,抠图效果更好。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要抠图的原始图片 | 输入需要移除背景的图像 | 连接要处理的图片 |
| BiRefNet模型 | birefnet_model | 模型类型 | 必填 | BiRefNet模型输入 | 从LoadBiRefNetModel节点获取 | 连接模型加载器的输出 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理方法 | 边缘细节处理算法 | VITMatte效果最好 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 6 | 向外扩张边缘的程度 | 遮罩边缘向外膨胀的像素数 | 6适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.01 | 黑色采样的门槛 | 边缘黑色采样阈值 | 0.01保留更多暗部细节 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色采样的门槛 | 边缘白色采样阈值 | 0.99保留更多亮部细节 |
| 处理细节 | process_detail | 真/假 | 假 | 是否进行边缘细化处理 | 是否启用边缘细节处理 | BiRefNet边缘已经很好,默认关闭 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | VitMatte运行设备 | 有显卡选cuda |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小 | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片 |
3.6.2 LoadBiRefNetModel 节点 - BiRefNet模型加载器
这个节点就像一个"模型管理员",专门负责加载BiRefNet抠图模型。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | model | 模型列表 | 任选 | 选择要加载的BiRefNet模型 | 指定BiRefNet模型文件 | 从ComfyUI/models/BiRefNet/pth文件夹选择 |
3.7 SAM2智能分割类节点
3.7.1 SAM2Ultra 节点 - SAM2超级分割器
这个节点就像一个"AI手术刀",能精确分割图片中的任何物体。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要分割的图片 | 输入需要分割的图像 | 连接要处理的图片 |
| 边界框 | bboxes | BBOXES类型 | 必填 | 物体的位置框 | 目标检测的边界框数据 | 连接目标检测器的输出 |
| SAM2模型 | sam2_model | 模型列表 | sam2_hiera_base_plus | 选择SAM2模型版本 | 指定使用的SAM2模型 | base_plus平衡速度和精度 |
| 精度 | precision | 精度列表 | fp16 | 模型运行精度 | 模型的数值精度 | fp16节省显存,fp32更精确 |
| 框选择 | bbox_select | 选择列表 | all | 选择哪些检测框 | 边界框选择策略 | all选择全部,first选择第一个 |
| 选择索引 | select_index | 字符串 | 0, | 指定选择的框索引 | 当bbox_select为by_index时使用 | "0,1,2"选择前三个框 |
| 缓存模型 | cache_model | 真/假 | 假 | 是否保持模型在内存中 | 是否缓存已加载的模型 | 开启可以加快重复处理 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理方法 | 边缘细节处理算法 | VITMatte效果最好但较慢 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 4 | 向外扩张边缘的程度 | 遮罩边缘向外膨胀的像素数 | 4适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.15 | 黑色采样的门槛 | 边缘黑色采样阈值 | 0.15适合大多数图片 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色采样的门槛 | 边缘白色采样阈值 | 0.99保留更多细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘优化 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | 模型运行设备 | 有显卡选cuda |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小 | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片 |
3.7.2 LoadSAM2Model 节点 - SAM2模型加载器
这个节点就像一个"模型仓库管理员",专门负责加载SAM2分割模型。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| SAM2模型 | sam2_model | 模型列表 | sam2_hiera_base_plus | 选择SAM2模型版本 | 指定使用的SAM2模型文件 | base_plus平衡速度和精度 |
| 精度 | precision | 精度列表 | fp16 | 模型运行精度 | 模型的数值精度 | fp16节省显存,fp32更精确 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | 模型运行设备 | 有显卡选cuda,没有选cpu |
3.8 目标检测类节点
3.8.1 ObjectDetectorFL2 节点 - Florence2目标检测器
这个节点就像一个"AI侦探",能在图片中找到并标记出指定的物体。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要检测的图片 | 输入需要检测目标的图像 | 连接要分析的图片 |
| 提示词 | prompt | 字符串 | subject | 要找的物体描述 | 目标检测的提示词 | "person"找人,"car"找车 |
| Florence2模型 | florence2_model | FLORENCE2类型 | 必填 | Florence2模型输入 | 从LoadFlorence2Model节点获取 | 连接模型加载器的输出 |
| 排序方法 | sort_method | 方法列表 | left_to_right | 检测框的排序方式 | 边界框排序策略 | left_to_right从左到右排序 |
| 框选择 | bbox_select | 选择列表 | all | 选择哪些检测框 | 边界框选择策略 | all选择全部,first选择第一个 |
| 选择索引 | select_index | 字符串 | 0, | 指定选择的框索引 | 当bbox_select为by_index时使用 | "0,1,2"选择前三个框 |
3.8.2 ObjectDetectorMask 节点 - 遮罩目标检测器
这个节点就像一个"形状识别器",能从遮罩中找出所有的白色区域并转换为检测框。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 物体遮罩 | object_mask | MASK类型 | 必填 | 包含物体形状的遮罩 | 输入的二值化遮罩图像 | 连接遮罩生成器的输出 |
| 排序方法 | sort_method | 方法列表 | left_to_right | 检测框的排序方式 | 边界框排序策略 | left_to_right从左到右排序 |
| 框选择 | bbox_select | 选择列表 | all | 选择哪些检测框 | 边界框选择策略 | all选择全部,first选择第一个 |
| 选择索引 | select_index | 字符串 | 0, | 指定选择的框索引 | 当bbox_select为by_index时使用 | "0,1,2"选择前三个框 |
3.8.3 DrawBBoxMask 节点 - 绘制检测框遮罩
这个节点就像一个"框框画笔",能把检测到的物体位置画成遮罩。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 参考图片,用于确定尺寸 | 输入图像,用于获取尺寸信息 | 连接原始图片 |
| 边界框 | bboxes | BBOXES类型 | 必填 | 要绘制的检测框数据 | 目标检测的边界框数据 | 连接目标检测器的输出 |
| 向上扩展 | grow_top | -10到10 | 0 | 框向上扩展的比例 | 边界框向上扩展的高度比例 | 0.1表示向上扩展10%的高度 |
| 向下扩展 | grow_bottom | -10到10 | 0 | 框向下扩展的比例 | 边界框向下扩展的高度比例 | 0.1表示向下扩展10%的高度 |
| 向左扩展 | grow_left | -10到10 | 0 | 框向左扩展的比例 | 边界框向左扩展的宽度比例 | 0.1表示向左扩展10%的宽度 |
| 向右扩展 | grow_right | -10到10 | 0 | 框向右扩展的比例 | 边界框向右扩展的宽度比例 | 0.1表示向右扩展10%的宽度 |
3.8.4 DrawBBoxMaskV2 节点 - 绘制检测框遮罩V2
这是DrawBBoxMask的升级版,增加了圆角矩形和抗锯齿功能。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 参考图片,用于确定尺寸 | 输入图像,用于获取尺寸信息 | 连接原始图片 |
| 边界框 | bboxes | BBOXES类型 | 必填 | 要绘制的检测框数据 | 目标检测的边界框数据 | 连接目标检测器的输出 |
| 向上扩展 | grow_top | -10到10 | 0 | 框向上扩展的比例 | 边界框向上扩展的高度比例 | 0.1表示向上扩展10%的高度 |
| 向下扩展 | grow_bottom | -10到10 | 0 | 框向下扩展的比例 | 边界框向下扩展的高度比例 | 0.1表示向下扩展10%的高度 |
| 向左扩展 | grow_left | -10到10 | 0 | 框向左扩展的比例 | 边界框向左扩展的宽度比例 | 0.1表示向左扩展10%的宽度 |
| 向右扩展 | grow_right | -10到10 | 0 | 框向右扩展的比例 | 边界框向右扩展的宽度比例 | 0.1表示向右扩展10%的宽度 |
| 圆角半径 | rounded_rect_radius | 0-100 | 50 | 矩形的圆角程度 | 圆角矩形的半径百分比 | 50表示中等圆角,0是直角 |
| 抗锯齿 | anti_aliasing | 0-16 | 2 | 边缘平滑程度 | 抗锯齿强度 | 2提供适中的平滑效果 |
3.9 AI视觉理解类节点
3.9.1 Florence2Ultra 节点 - Florence2超级分割器
这个节点就像一个"AI艺术家",能理解图片内容并进行精确分割。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| Florence2模型 | florence2_model | FLORENCE2类型 | 必填 | Florence2模型输入 | 从LoadFlorence2Model节点获取 | 连接模型加载器的输出 |
| 图片 | image | IMAGE类型 | 必填 | 要分析的图片 | 输入需要分割的图像 | 连接要处理的图片 |
| 任务类型 | task | 任务列表 | region to segmentation | 选择要执行的任务 | 指定Florence2执行的任务类型 | region to segmentation进行区域分割 |
| 文本输入 | text_input | 字符串 | subject | 任务相关的文本描述 | 任务相关的文本提示 | "person"分割人物 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理方法 | 边缘细节处理算法 | VITMatte效果最好 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 6 | 向外扩张边缘的程度 | 遮罩边缘向外膨胀的像素数 | 6适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.01 | 黑色采样的门槛 | 边缘黑色采样阈值 | 0.01保留更多暗部细节 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色采样的门槛 | 边缘白色采样阈值 | 0.99保留更多亮部细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘细化处理 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | VitMatte运行设备 | 有显卡选cuda |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小 | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片 |
3.9.2 Florence2Image2Prompt 节点 - Florence2图片转提示词
这个节点就像一个"AI解说员",能看图说话,生成各种风格的描述文字。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| Florence2模型 | florence2_model | FLORENCE2类型 | 必填 | Florence2模型输入 | 从LoadFlorence2Model节点获取 | 连接模型加载器的输出 |
| 图片 | image | IMAGE类型 | 必填 | 要描述的图片 | 输入需要生成描述的图像 | 连接要分析的图片 |
| 任务类型 | task | 任务列表 | more detailed caption | 选择描述的详细程度 | 指定生成描述的类型 | more detailed caption生成详细描述 |
| 文本输入 | text_input | 字符串 | 空 | 额外的文本提示 | 任务相关的文本提示 | 某些任务需要额外输入 |
| 最大新字符 | max_new_tokens | 1-4096 | 1024 | 生成文本的最大长度 | 生成文本的最大token数量 | 1024够用于详细描述 |
| 束搜索数 | num_beams | 1-10 | 3 | 生成质量控制 | 束搜索的数量 | 3平衡质量和速度 |
| 采样开关 | do_sample | 真/假 | 假 | 是否使用随机采样 | 是否启用采样生成 | 关闭获得更稳定的结果 |
| 填充遮罩 | fill_mask | 真/假 | 假 | 是否填充分割遮罩 | 是否在分割任务中填充遮罩 | 通常保持关闭 |
3.9.3 JoyCaptionBeta1 节点 - JoyCaption图片描述生成器
这个节点就像一个"专业摄影师",能用各种风格描述图片内容。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要描述的图片 | 输入需要生成描述的图像 | 连接要分析的图片 |
| JoyCaption模型 | joycaption_beta1_model | 模型类型 | 必填 | JoyCaption模型输入 | 从LoadJoyCaptionBeta1Model节点获取 | 连接模型加载器的输出 |
| 描述类型 | caption_type | 类型列表 | Descriptive | 选择描述的风格 | 指定生成描述的类型和风格 | Descriptive生成描述性文字 |
| 描述长度 | caption_length | 长度列表 | medium-length | 描述的详细程度 | 指定生成描述的长度 | medium-length适中长度 |
| 最大新字符 | max_new_tokens | 4-2048 | 512 | 生成文本的最大长度 | 生成文本的最大token数量 | 512够用于大多数描述 |
| 核心概率 | top_p | 0-1 | 0.9 | 控制词汇选择的多样性 | 核采样参数 | 0.9提供适中的多样性 |
| 前K选择 | top_k | 0-100 | 0 | 限制候选词汇数量 | top-k采样参数 | 0表示不限制 |
| 创造性温度 | temperature | 0-2 | 0.6 | 控制生成的随机性 | 控制生成文本的随机性 | 0.6平衡准确性和创造性 |
| 用户提示 | user_prompt | 多行文本 | 空 | 自定义提示词 | 用户自定义的提示词 | 如果填写会覆盖其他设置 |
| 额外选项 | extra_options | 选项类型 | 可选 | 额外的描述选项 | 从JoyCaptionBeta1ExtraOptions节点获取 | 连接额外选项节点 |
3.10 小型AI模型类节点
3.10.1 SmolLM2 节点 - 小型语言模型
这个节点就像一个"迷你AI助手",体积小但功能全面的文本AI。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| SmolLM2模型 | smolLM2_model | 模型类型 | 必填 | SmolLM2模型输入 | 从LoadSmolLM2Model节点获取 | 连接模型加载器的输出 |
| 最大新字符 | max_new_tokens | 1-4096 | 512 | 生成文本的最大长度 | 生成文本的最大token数量 | 512够用于大多数对话 |
| 采样开关 | do_sample | 真/假 | 真 | 是否使用随机采样 | 是否启用采样生成 | 开启获得更多样化的回答 |
| 创造性温度 | temperature | 0-2 | 0.5 | 控制生成的随机性 | 控制生成文本的随机性 | 0.5平衡准确性和创造性 |
| 核心概率 | top_p | 0-1 | 0.9 | 控制词汇选择的多样性 | 核采样参数 | 0.9提供适中的多样性 |
| 系统提示 | system_prompt | 单行文本 | You are a helpful AI assistant. | 设定AI的角色 | 系统级别的角色设定 | "你是一个专业的编程助手" |
| 用户提示 | user_prompt | 多行文本 | who are you? | 你想问的问题 | 用户的具体询问 | "请解释什么是人工智能" |
3.10.2 SmolVLM 节点 - 小型视觉语言模型
这个节点就像一个"迷你视觉AI",能看图说话的小型AI模型。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要分析的图片 | 输入需要分析的图像,支持批量 | 连接要分析的图片 |
| SmolVLM模型 | smolVLM_model | 模型类型 | 必填 | SmolVLM模型输入 | 从LoadSmolVLMModel节点获取 | 连接模型加载器的输出 |
| 最大新字符 | max_new_tokens | 1-4096 | 512 | 生成文本的最大长度 | 生成文本的最大token数量 | 512够用于图片描述 |
| 用户提示 | user_prompt | 多行文本 | describe this image | 关于图片的问题 | 用户对图像的询问 | "描述这张图片的内容" |
3.11 BiRefNet抠图类节点(续)
3.11.1 LoadBiRefNetModel 节点 - BiRefNet模型加载器
这个节点就像一个"模型管理员",专门负责加载BiRefNet抠图模型。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 模型选择 | model | 模型列表 | BiRefNet-general-epoch_244.pth | 选择要加载的BiRefNet模型 | 指定BiRefNet模型文件 | 从ComfyUI/models/BiRefNet/pth文件夹选择 |
3.11.2 LoadBiRefNetModelV2 节点 - BiRefNet模型加载器V2
这是BiRefNet模型加载器的升级版,支持更多模型版本。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 版本选择 | version | 版本列表 | BiRefNet-General | 选择BiRefNet模型版本 | 指定使用的BiRefNet模型版本 | BiRefNet-General是通用版本 |
3.12 SegmentAnything分割类节点(续)
3.12.1 SegmentAnythingUltraV2 节点 - 分割增强版V2
这是SegmentAnything的升级版,提供更好的分割效果和性能。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要分割的图片 | 输入需要分割的图像 | 连接要处理的图片 |
| SAM模型 | sam_model | 模型列表 | sam_vit_h | 分割用的AI模型 | Segment Anything模型选择 | vit_h精度最高但最慢 |
| 检测模型 | grounding_dino_model | 模型列表 | GroundingDINO_SwinT | 物体检测的AI模型 | Grounding DINO模型选择 | SwinT是标准选择 |
| 检测阈值 | threshold | 0-1 | 0.3 | 检测的敏感度 | SAM检测的置信度阈值 | 0.3适合大多数情况 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理方法 | 边缘细节处理算法 | VITMatte效果最好 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 6 | 向外扩张边缘的程度 | 遮罩边缘向外膨胀的像素数 | 6适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.15 | 黑色区域的判断标准 | 边缘黑色采样阈值 | 0.15适合大多数图片 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色区域的判断标准 | 边缘白色采样阈值 | 0.99保留更多细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘优化 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
| 提示词 | prompt | 字符串 | subject | 要分割的物体描述 | 目标检测的提示词 | "person"找人,"car"找车 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | 模型运行设备 | 有显卡选cuda |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小 | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片 |
| 缓存模型 | cache_model | 真/假 | 假 | 是否保持模型在内存中 | 是否缓存已加载的模型 | 开启可以加快重复处理 |
3.12.2 SegmentAnythingUltraV3 节点 - 分割增强版V3
这是最新版本的SegmentAnything节点,优化了模型加载方式。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要分割的图片 | 输入需要分割的图像 | 连接要处理的图片 |
| SAM模型 | sam_models | LS_SAM_MODELS类型 | 必填 | 预加载的SAM模型 | 从LoadSegmentAnythingModels节点获取 | 连接模型加载器的输出 |
| 检测阈值 | threshold | 0-1 | 0.3 | 检测的敏感度 | SAM检测的置信度阈值 | 0.3适合大多数情况 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理方法 | 边缘细节处理算法 | VITMatte效果最好 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 6 | 向外扩张边缘的程度 | 遮罩边缘向外膨胀的像素数 | 6适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.15 | 黑色区域的判断标准 | 边缘黑色采样阈值 | 0.15适合大多数图片 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色区域的判断标准 | 边缘白色采样阈值 | 0.99保留更多细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘优化 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
| 提示词 | prompt | 字符串 | subject | 要分割的物体描述 | 目标检测的提示词 | "person"找人,"car"找车 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | 模型运行设备 | 有显卡选cuda |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小 | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片 |
3.12.3 LoadSegmentAnythingModels 节点 - SAM模型加载器
这个节点专门用于预加载SegmentAnything相关的模型。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| SAM模型 | sam_model | 模型列表 | sam_vit_h | 选择SAM分割模型 | Segment Anything模型选择 | vit_h精度最高 |
| 检测模型 | grounding_dino_model | 模型列表 | GroundingDINO_SwinT | 选择物体检测模型 | Grounding DINO模型选择 | SwinT是标准选择 |
3.13 人物分割类节点
3.13.1 PersonMaskUltra 节点 - 人物分割器
这个节点就像一个"人体解析专家",能精确分割出人物的各个部位。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | images | IMAGE类型 | 必填 | 要分析的人物图片 | 输入需要分割的人物图像 | 连接包含人物的图片 |
| 脸部 | face | 真/假 | 真 | 是否包含脸部区域 | 是否分割面部区域 | 开启可以分割出脸部 |
| 头发 | hair | 真/假 | 假 | 是否包含头发区域 | 是否分割头发区域 | 开启可以分割出头发 |
| 身体 | body | 真/假 | 假 | 是否包含身体区域 | 是否分割身体区域 | 开启可以分割出身体 |
| 衣服 | clothes | 真/假 | 假 | 是否包含衣服区域 | 是否分割衣服区域 | 开启可以分割出衣服 |
| 配饰 | accessories | 真/假 | 假 | 是否包含配饰区域 | 是否分割配饰区域 | 开启可以分割出配饰 |
| 背景 | background | 真/假 | 假 | 是否包含背景区域 | 是否分割背景区域 | 开启可以分割出背景 |
| 置信度 | confidence | 0.05-0.95 | 0.4 | 分割的准确度要求 | 分割置信度阈值 | 0.4平衡准确性和覆盖度 |
| 细节范围 | detail_range | 1-256 | 16 | 边缘细节处理的范围 | 边缘细节处理范围 | 16提供适中的细节处理 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.01 | 黑色区域的判断标准 | 边缘黑色采样阈值 | 0.01保留更多暗部细节 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色区域的判断标准 | 边缘白色采样阈值 | 0.99保留更多亮部细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘优化 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
3.14 透明背景类节点
3.14.1 TransparentBackgroundUltra 节点 - 透明背景生成器
这个节点就像一个"背景橡皮擦",能快速移除图片背景并生成透明背景。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要处理的图片 | 输入需要移除背景的图像 | 连接要处理的图片 |
| 模型选择 | model | 模型列表 | ckpt_base.pth | 选择背景移除模型 | 指定使用的透明背景模型 | base模型平衡速度和质量 |
| 细节处理方法 | detail_method | 方法列表 | VITMatte | 边缘处理方法 | 边缘细节处理算法 | VITMatte效果最好 |
| 细节腐蚀 | detail_erode | 1-255 | 6 | 向内收缩边缘的程度 | 遮罩边缘向内腐蚀的像素数 | 6适合大多数情况 |
| 细节膨胀 | detail_dilate | 1-255 | 6 | 向外扩张边缘的程度 | 遮罩边缘向外膨胀的像素数 | 6适合大多数情况 |
| 黑点阈值 | black_point | 0.01-0.98 | 0.01 | 黑色区域的判断标准 | 边缘黑色采样阈值 | 0.01保留更多暗部细节 |
| 白点阈值 | white_point | 0.02-0.99 | 0.99 | 白色区域的判断标准 | 边缘白色采样阈值 | 0.99保留更多亮部细节 |
| 处理细节 | process_detail | 真/假 | 真 | 是否进行边缘优化 | 是否启用边缘细节处理 | 开启获得更好的边缘效果 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | 模型运行设备 | 有显卡选cuda |
| 最大像素数 | max_megapixels | 1-999 | 2.0 | VITMatte处理的最大图片大小 | VITMatte操作的最大尺寸限制 | 2.0适合大多数图片 |
3.15 水印处理类节点
3.15.1 AddBlindWaterMark 节点 - 添加隐形水印
这个节点就像一个"隐形印章",能在图片中添加看不见的水印。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要添加水印的图片 | 输入需要添加水印的图像 | 连接要保护的图片 |
| 水印图片 | watermark_image | IMAGE类型 | 必填 | 用作水印的图片 | 作为水印的图像数据 | 连接水印图案或文字图片 |
3.15.2 ShowBlindWaterMark 节点 - 显示隐形水印
这个节点就像一个"隐形显影剂",能从图片中提取出隐藏的水印。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 包含隐形水印的图片 | 输入需要提取水印的图像 | 连接包含水印的图片 |
3.16 二维码处理类节点
3.16.1 CreateQRCode 节点 - 二维码生成器
这个节点就像一个"二维码打印机",能根据文字内容生成二维码图片。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 尺寸 | size | 4-99999 | 512 | 生成的二维码图片大小 | 输出图像的像素尺寸 | 512适合大多数用途 |
| 边框 | border | 1-10 | 1 | 二维码周围的白边宽度 | 二维码边框的宽度 | 1是最小边框 |
| 文本内容 | text | 多行文本 | 空 | 要编码成二维码的文字 | 需要编码的文本内容 | 输入网址、文字或其他信息 |
3.16.2 DecodeQRCode 节点 - 二维码识别器
这个节点就像一个"二维码扫描器",能从图片中识别并提取二维码内容。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 包含二维码的图片 | 输入需要识别的图像 | 连接包含二维码的图片 |
| 预模糊 | pre_blur | 0-16 | 2 | 识别前的模糊处理程度 | 预处理模糊强度 | 2可以改善识别效果 |
3.17 图像修复类节点
3.17.1 LaMa 节点 - AI图像修复器
这个节点就像一个"AI修图师",能智能填补图片中的缺失或不需要的部分。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要修复的图片 | 输入需要修复的图像 | 连接要处理的图片 |
| 遮罩 | mask | MASK类型 | 必填 | 标记要修复区域的遮罩 | 指定需要修复的区域 | 白色区域会被修复 |
| LaMa模型 | lama_model | 模型列表 | lama | 选择修复算法 | 指定使用的修复模型 | lama效果最好但较慢 |
| 设备选择 | device | cuda/cpu | cuda | 使用显卡还是CPU处理 | 模型运行设备 | 有显卡选cuda |
| 反转遮罩 | invert_mask | 真/假 | 假 | 是否反转遮罩区域 | 是否反转遮罩的黑白区域 | 开启后黑色区域会被修复 |
| 遮罩扩展 | mask_grow | -255到255 | 25 | 扩大或缩小遮罩范围 | 遮罩边缘扩展的像素数 | 正值扩大,负值缩小 |
| 遮罩模糊 | mask_blur | -255到255 | 8 | 遮罩边缘的模糊程度 | 遮罩边缘模糊强度 | 8提供自然的过渡效果 |
3.18 YOLO检测类节点
3.18.1 YoloV8Detect 节点 - YOLO物体检测器
这个节点就像一个"AI侦探",能识别图片中的各种物体并生成对应的遮罩。
参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| 图片 | image | IMAGE类型 | 必填 | 要检测的图片 | 输入需要检测物体的图像 | 连接要分析的图片 |
| YOLO模型 | yolo_model | 模型列表 | 任选 | 选择YOLO检测模型 | 指定使用的YOLO模型文件 | 从ComfyUI/models/yolo文件夹选择 |
| 遮罩合并 | mask_merge | 选项列表 | all | 如何合并多个检测结果 | 多个检测遮罩的合并方式 | all合并所有,数字选择前N个 |
4. 使用技巧和建议
4.1 新手入门建议
- 从简单开始:先试试Collage拼图功能,熟悉界面操作
- 准备API密钥:使用AI对话功能需要申请相应的API密钥
- 模型下载:提前下载需要的AI模型文件,避免使用时等待
4.2 高级使用技巧
- 组合使用:将抠图节点和保存节点组合,实现一键抠图保存
- 批量处理:利用图像批次功能,一次处理多张图片
- 参数调优:根据图片特点调整阈值参数,获得更好效果
4.3 性能优化建议
- 显卡加速:有NVIDIA显卡的用户选择cuda设备
- 内存管理:处理大图片时适当降低max_megapixels参数
- 模型缓存:频繁使用同一模型时开启缓存功能
5. 常见问题解答
Q1:为什么AI对话节点无法使用?
A: 需要申请相应的API密钥:
- Google Gemini:在 Google AI Studio 申请
- DeepSeek:在 DeepSeek平台 申请
- 将密钥填入插件目录下的
api_key.ini文件
Q2:抠图效果不好怎么办?
A: 可以尝试:
- 调整黑点和白点阈值
- 更换细节处理方法
- 增加细节腐蚀和膨胀参数
- 使用更高精度的模型
Q3:处理速度很慢怎么办?
A: 优化建议:
- 确保使用CUDA设备(需要NVIDIA显卡)
- 降低max_megapixels参数
- 关闭不必要的细节处理
- 使用较小的模型
Q4:模型文件下载失败?
A: 解决方案:
- 使用国内网盘下载(百度网盘或夸克网盘)
- 检查网络连接
- 手动下载后放到对应文件夹
Q5:保存的图片找不到?
A: 检查:
- 自定义路径是否正确
- 是否有文件夹写入权限
- 查看ComfyUI的输出目录
6. 实用工作流示例
6.1 智能抠图工作流
输入图片 → BiRefNetUltra → SaveImagePlusV2
6.2 AI对话分析工作流
输入图片 → Gemini → 文本输出
6.3 图片拼贴工作流
多张图片 → Collage → SaveImagePlus
6.4 目标检测工作流
输入图片 → SegmentAnythingUltra → 输出遮罩和图片
7. 总结
LayerStyle Advance 插件就像是 ComfyUI 的"瑞士军刀",集成了大量实用的AI工具。无论是图像处理、AI对话还是智能分析,都能在这里找到合适的工具。
记住这几个要点:
- 🔧 准备工作很重要:API密钥和模型文件要提前准备好
- 🎯 参数调整是关键:根据具体图片调整参数获得最佳效果
- ⚡ 性能优化不可少:合理设置设备和参数,提高处理速度
- 🔄 组合使用更强大:多个节点组合使用能实现更复杂的功能
- 💡 实践出真知:多试多练,熟能生巧
现在你已经掌握了这个强大插件的核心功能,快去试试吧!记住,AI工具只是助手,创意和想法才是最重要的。
8. 插件节点完整统计
根据源码分析,ComfyUI LayerStyle Advance插件包含以下主要节点类别:
8.1 节点分类统计
- AI对话交互类:6个节点(Gemini、DeepSeek、智谱GLM4等)
- 智能抠图分割类:15个节点(BiRefNet、SAM2、SegmentAnything等)
- 目标检测识别类:8个节点(Florence2、YOLO、Grounding DINO等)
- 图像处理工具类:12个节点(保存、裁剪、色调分析等)
- AI视觉理解类:8个节点(JoyCaption、SmolVLM、Llama Vision等)
- 提示词处理类:4个节点(生成、美化、标签等)
- 实用工具类:6个节点(二维码、水印、修复等)
- 模型加载类:8个节点(各种AI模型加载器)
8.2 技术特色
- 多模态AI支持:集成了文本、图像、视觉语言等多种AI模型
- 专业级抠图:支持BiRefNet、SAM2等最新抠图技术
- 智能目标检测:整合Florence2、YOLO等先进检测算法
- 边缘细节优化:提供VITMatte、PyMatting等边缘处理技术
- API服务集成:支持Google Gemini、DeepSeek、智谱等云端AI服务
8.3 适用场景
- 内容创作者:快速抠图、背景替换、图像修复
- 设计师:智能裁剪、色调分析、素材处理
- 开发者:AI对话集成、图像识别、自动化处理
- 研究者:多模型对比、算法测试、效果评估
这个插件真正做到了"一站式AI图像处理",无论你是新手还是专家,都能找到适合的工具来提升工作效率。
9. 学习建议和进阶路径
9.1 新手学习路径
- 第一步:从简单的Collage拼图开始,熟悉ComfyUI的节点连接方式
- 第二步:尝试BiRefNet抠图,体验AI抠图的强大效果
- 第三步:使用SaveImagePlus保存作品,学会自定义保存设置
- 第四步:探索AI对话功能,如Gemini图像分析
- 第五步:组合多个节点,创建复杂的图像处理工作流
9.2 进阶技巧
- 参数调优:根据不同图片类型调整阈值参数
- 模型选择:了解各种AI模型的特点和适用场景
- 工作流设计:学会设计高效的节点连接流程
- 批量处理:利用图像批次功能提高处理效率
- 性能优化:合理使用GPU加速和模型缓存
9.3 常见应用组合
- 智能证件照制作:PersonMask + BiRefNet + 背景替换
- 产品图抠图:SegmentAnything + VITMatte细节处理
- 批量图片分析:Florence2 + JoyCaption + 批量保存
- AI辅助设计:Gemini分析 + 提示词生成 + 图像处理