【版权严正声明】
本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。
未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。
任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。
侵权必究,切勿以身试法!
插件简介
ComfyUI-WD14-Tagger 是一个专门用于图像标签识别的智能插件。
插件地址: https://github.com/pythongosssss/ComfyUI-WD14-Tagger
主要功能:
自动识别图片中的内容并生成标签
支持动漫、二次元图片的精确标签识别
可以识别角色、物体、风格、动作等多种元素
支持多种不同的识别模型
可以过滤不需要的标签
这个插件就像一个专业的图片内容分析师,能够"看懂"你的图片里有什么东西,然后用文字标签告诉你。比如你有一张动漫女孩的图片,它能告诉你图片里有"长发"、"蓝色眼睛"、"校服"、"微笑"等等标签。这些标签可以用来训练AI模型,或者帮你更好地管理图片。
如何安装
方法一:通过 ComfyUI Manager 安装(推荐)
打开 ComfyUI Manager
搜索 "WD14-Tagger"
点击安装
重启 ComfyUI
方法二:手动安装
进入 ComfyUI 的
custom_nodes文件夹运行命令:
git clone https://github.com/pythongosssss/ComfyUI-WD14-Tagger.git进入插件文件夹:
cd ComfyUI-WD14-Tagger安装依赖:
pip install -r requirements.txt重启 ComfyUI
节点详细解析
插件总节点数:1个 本次已分析:1个 剩余未分析:0个
3.1 WD14 Tagger 节点 - 图像标签识别器
这个节点就像一个专业的图片内容识别专家,能够仔细观察你的图片,然后告诉你图片里都有什么东西。它特别擅长识别动漫、二次元风格的图片内容。
参数详解
前端JavaScript功能
这个插件还包含一个前端JavaScript文件,提供了额外的便利功能:
右键菜单功能
快速标签识别:在任何显示图片的节点上右键,选择"WD14 Tagger"可以快速识别图片标签
状态显示:在节点上方显示下载进度和处理状态
结果展示:识别完成后会弹出对话框显示标签结果
界面增强功能
动态标签显示:识别结果会以只读文本框的形式显示在节点上
进度条显示:模型下载时会显示进度条
状态标签:节点顶部会显示当前处理状态
使用技巧和建议
4.1 模型选择技巧
wd-v1-4-moat-tagger-v2:最新最准确的模型,推荐使用
wd-v1-4-convnext-tagger-v2:最受欢迎的模型,平衡性好
wd-v1-4-convnextv2-tagger-v2:ConvNext的升级版
wd-v1-4-vit-tagger-v2:基于Vision Transformer的模型
4.2 阈值设置建议
一般标签阈值(threshold):
0.2-0.3:识别更多标签,但可能有误判
0.35:默认值,平衡准确性和完整性
0.5-0.6:只识别最确定的标签
角色阈值(character_threshold):
0.8-0.85:默认范围,适合大多数情况
0.9以上:只识别非常确定的角色
4.3 标签处理技巧
使用排除标签功能过滤不需要的内容
根据用途选择是否替换下划线
末尾逗号功能适合直接复制到提示词
4.4 性能优化建议
首次使用会自动下载模型,需要网络连接
模型下载后会缓存,离线也能使用
CPU运行速度已经很快,不一定需要GPU
常见问题解答
5.1 安装和模型问题
Q:为什么提示缺少onnxruntime? A:需要安装依赖包,运行pip install -r requirements.txt安装所需依赖。
Q:模型下载失败怎么办? A:检查网络连接,或者手动下载模型文件到models文件夹。
Q:可以离线使用吗? A:可以,首次联网下载模型后,后续可以离线使用。
5.2 识别效果问题
Q:识别出来的标签不准确? A:尝试调整阈值,或者换用不同的模型,MOAT模型通常最准确。
Q:为什么有些明显的特征没有识别出来? A:降低threshold阈值,或者检查是否在排除标签中过滤了。
Q:角色识别不准确? A:调整character_threshold,或者使用专门训练过该角色的模型。
5.3 使用和输出问题
Q:如何快速识别图片? A:在任何显示图片的节点上右键,选择"WD14 Tagger"即可快速识别。
Q:标签格式不符合需求? A:使用replace_underscore和trailing_comma参数调整输出格式。
Q:如何过滤不想要的标签? A:在exclude_tags参数中填入要过滤的标签,用逗号分隔。
5.4 性能和兼容性
Q:处理速度很慢? A:WD14模型在CPU上运行已经很快,如果需要更快速度可以尝试GPU版本。
Q:支持哪些图片格式? A:支持常见的图片格式,如PNG、JPG、WEBP等。
实用工作流程示例
6.1 基础标签识别流程
加载图片 → Load Image 节点
标签识别 → WD14 Tagger 节点
查看结果 → 节点会显示识别出的标签
6.2 快速识别流程
加载图片 → Load Image 节点
右键识别 → 在图片上右键选择"WD14 Tagger"
查看弹窗 → 在弹出的对话框中查看标签
6.3 标签处理流程
识别标签 → WD14 Tagger 节点
处理格式 → 设置replace_underscore和trailing_comma
过滤标签 → 使用exclude_tags过滤不需要的标签
输出使用 → 将标签用于其他节点或复制使用
支持的模型列表
6.1 官方预设模型
wd-v1-4-moat-tagger-v2:最新的MOAT架构模型
wd-v1-4-convnext-tagger-v2:ConvNext架构模型
wd-v1-4-convnextv2-tagger-v2:ConvNext V2架构模型
wd-v1-4-vit-tagger-v2:Vision Transformer架构模型
wd-v1-4-swinv2-tagger-v2:Swin Transformer V2架构模型
6.2 模型特点对比
MOAT:最新最准确,推荐首选
ConvNext:经典稳定,广泛使用
ViT:Transformer架构,适合复杂场景
Swin:窗口注意力机制,平衡性能和准确性
总结
ComfyUI-WD14-Tagger 是一个简单而强大的图像标签识别插件,只包含1个核心节点,但功能非常实用。它能够准确识别图片内容并生成标签,特别适合动漫、二次元图片的分析。
记住几个关键点:
选择合适的模型(推荐MOAT)
根据需求调整识别阈值
善用排除标签功能过滤内容
利用右键快速识别功能提高效率
首次使用需要联网下载模型
合理设置输出格式满足不同需求
希望这个教程能帮助你更好地使用这个实用的图像标签识别插件!