ComfyUI LLM Toolkit 插件完全使用指南
1. 插件简介
ComfyUI LLM Toolkit(插件地址:https://github.com/comfy-deploy/comfyui-llm-toolkit)是一个专门为ComfyUI设计的智能聊天机器人插件包。想象一下,这个插件就像是给你的ComfyUI加了一个超级聪明的助手,可以帮你写文字、回答问题、生成创意内容等等。
这个插件最大的特点是:
- 一根线连到底:所有节点都用同一种"万能接口"连接,就像用一根万能数据线连接所有设备一样简单
- 支持多种聊天机器人:不仅支持OpenAI的ChatGPT,还支持本地运行的聊天机器人
- 智能数据传递:每个节点都会把自己的处理结果传递给下一个节点,像接力赛一样
2. 如何安装
方法一:手动安装
- 打开你的ComfyUI安装文件夹
- 进入
custom_nodes文件夹 - 打开命令行工具(Windows按Win+R,输入cmd)
- 输入以下命令:
git clone https://github.com/comfy-deploy/comfyui-llm-toolkit.git - 进入插件文件夹:
cd comfyui-llm-toolkit - 安装必要的程序包:
pip install -r requirements.txt - 重启ComfyUI
方法二:通过ComfyUI管理器安装
- 在ComfyUI中打开"管理器"
- 搜索"LLM Toolkit"
- 点击安装
- 重启ComfyUI
3. 节点详细解析
3.1 LLM Provider Selector(智能助手选择器)
这个节点就像是一个"智能助手选择器",你可以用它来选择要使用哪个聊天机器人服务。就像你在手机上选择要用微信还是QQ聊天一样。
3.2 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Provider | provider | OpenAI/Ollama | OpenAI | 选择你想用的聊天机器人服务商,就像选择外卖平台一样 | 选择LLM服务提供商 | 如果你有OpenAI账号就选OpenAI,想用免费的就选Ollama |
| Model | model | 动态显示 | gpt-4o-mini | 选择具体的聊天机器人型号,就像选择手机型号一样 | 选择具体的语言模型 | OpenAI选gpt-4o-mini便宜好用,Ollama选llama3 |
| API Key | api_key | 文本输入 | 你的密钥 | 这是你的"通行证",证明你有权限使用这个服务 | API访问密钥 | 在OpenAI官网申请,或者用环境变量设置 |
| Base URL | base_url | 文本输入 | 默认地址 | 服务器地址,就像快递地址一样 | API服务基础URL | 一般不用改,除非用特殊服务 |
| IP Address | ip | 文本输入 | 127.0.0.1 | 本地服务器的"门牌号" | 本地服务IP地址 | 只有选择Ollama等本地服务时才需要填 |
| Port | port | 数字输入 | 11434 | 服务器的"门号",就像房间号一样 | 服务端口号 | 一般用默认值就行,除非你改了设置 |
3.3 LLM Generator(智能文字生成器)
这个节点就像是一个"智能写作助手",你给它一个话题或问题,它就能帮你写出相应的文字内容。
3.4 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Prompt | prompt | 文本输入 | 你的问题 | 这是你想问的问题或者想让AI帮你写的内容 | 用户输入的提示文本 | 比如"帮我写一篇关于春天的诗" |
| System Message | system_message | 文本输入 | 角色设定 | 告诉AI它应该扮演什么角色,就像给演员分配角色一样 | 系统角色设定消息 | 比如"你是一位专业的诗人" |
| Temperature | temperature | 0.0-2.0 | 0.7 | 创意程度调节器,就像调节音量大小一样 | 生成随机性控制参数 | 0.1很严谨,0.7平衡,1.5很有创意 |
| Max Tokens | max_tokens | 数字输入 | 1000 | 限制回答的最大字数,就像限制作文字数一样 | 最大生成token数量 | 一般1000够用,太少会截断,太多浪费 |
| Top P | top_p | 0.0-1.0 | 0.9 | 词汇选择范围,就像选择题的选项多少 | 核采样参数 | 0.9比较平衡,0.1选择很保守,1.0选择很广泛 |
| Model Override | model_override | 下拉选择 | 留空 | 临时换个聊天机器人,就像临时换个外卖平台 | 临时覆盖模型选择 | 一般不用管,除非想临时试试别的模型 |
3.5 Context Input(上下文输入节点)
这个节点就像是一个"记忆传递器",它可以接收前面节点的"记忆"并传递给下一个节点。
3.6 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Context Input | context_input | 万能接口 | 连接前面节点 | 这是万能接口,可以接收任何类型的信息 | 通用上下文数据输入 | 直接连接前面节点的输出就行 |
3.7 Image Analysis(图片分析节点)
这个节点就像是一个"智能看图说话助手",你给它一张图片,它就能告诉你图片里有什么。
3.8 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Image | image | 图片输入 | 连接图片 | 要分析的图片,就像给医生看X光片一样 | 输入图像数据 | 从Load Image节点连接过来 |
| Question | question | 文本输入 | 描述这张图片 | 你想问关于这张图片的问题 | 关于图像的查询文本 | 比如"这张图片里有什么动物?" |
| Model | model | 下拉选择 | gpt-4o | 选择有看图能力的聊天机器人 | 支持视觉的语言模型 | 必须选择支持看图的模型如gpt-4o |
| Max Tokens | max_tokens | 数字输入 | 300 | 限制描述的最大字数 | 最大生成token数量 | 图片描述一般300字就够了 |
| Temperature | temperature | 0.0-2.0 | 0.3 | 描述的创意程度,一般设低点更准确 | 生成随机性控制参数 | 图片分析建议设0.3,保证准确性 |
3.9 Template Selector(模板选择器)
这个节点就像是一个"写作模板库",里面有各种写作模板,你可以选择适合的模板来生成内容。
3.10 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Template | template | 下拉选择 | Creative Writing | 选择写作模板类型,就像选择作文题材一样 | 预设的提示模板 | Creative Writing写创意内容,Business正式文档 |
| Variables | variables | 文本输入 | 变量值 | 模板里的空白处要填的内容 | 模板变量值 | 比如模板里有{主题},你就填"春天" |
| Custom Template | custom_template | 文本输入 | 自定义模板 | 自己设计的写作模板 | 用户自定义提示模板 | 比如"写一篇关于{主题}的{文体}" |
3.11 Batch Processor(批量处理器)
这个节点就像是一个"批量生产机",可以一次性处理多个任务,就像工厂流水线一样。
3.12 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Batch Size | batch_size | 数字输入 | 5 | 一次处理多少个任务,就像一次洗多少件衣服 | 批处理大小 | 太大会卡,太小效率低,一般5个合适 |
| Prompts | prompts | 文本列表 | 多个提示 | 要处理的多个问题或任务 | 批量输入提示列表 | 每行一个问题,比如多个翻译任务 |
| Parallel Processing | parallel_processing | 真/假 | 真 | 是否同时处理多个任务,就像多线程 | 是否启用并行处理 | 开启能加快速度,但会占用更多资源 |
| Delay | delay | 数字输入 | 1 | 每个任务之间的等待时间(秒) | 请求间隔时间 | 避免请求太频繁被限制,一般1秒就够 |
3.13 Cache Manager(缓存管理器)
这个节点就像是一个"智能记忆库",可以记住之前的对话内容,避免重复计算。
3.14 参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 | 专业解释 | 怎么用/举个例子 |
| :— | :— | :— | :— | :— | :— | :— |
| Cache Key | cache_key | 文本输入 | 唯一标识 | 给这次对话起个名字,就像给文件起名一样 | 缓存键值 | 比如"项目A的翻译",用来区分不同任务 |
| TTL | ttl | 数字输入 | 3600 | 记忆保持时间(秒),就像临时文件的保存时间 | 缓存生存时间 | 3600秒=1小时,超时后自动清除 |
| Enable Cache | enable_cache | 真/假 | 真 | 是否启用记忆功能 | 是否启用缓存 | 开启能提高效率,关闭每次都重新计算 |
| Clear Cache | clear_cache | 按钮 | 点击清除 | 清除所有记忆,就像格式化内存卡 | 清除缓存操作 | 当内存占用太多或需要重新开始时使用 |
4. 使用技巧和建议
4.1 节点连接技巧
- 万能接口连接:所有节点都使用"context"接口连接,就像用一根万能数据线连接所有设备
- 数据累积传递:每个节点都会保留前面节点的信息,并加入自己的处理结果
- 链式处理:可以把多个节点串联起来,形成完整的处理流程
4.2 参数调优建议
-
Temperature(创意度):
- 0.1-0.3:适合翻译、总结等需要准确的任务
- 0.7-0.9:适合创意写作、头脑风暴等任务
- 1.0以上:适合艺术创作、实验性内容
-
Max Tokens(最大字数):
- 短回答:50-200
- 中等回答:300-800
- 长回答:1000-2000
- 超长内容:3000+
4.3 模型选择建议
- OpenAI GPT-4o-mini:性价比最高,适合大多数任务
- OpenAI GPT-4o:最强能力,适合复杂任务和图片分析
- Ollama本地模型:免费但需要本地运行,适合隐私要求高的任务
5. 常见问题解答
5.1 安装问题
Q: 安装后找不到节点?
A: 检查是否正确重启了ComfyUI,或者查看控制台是否有错误信息。
Q: 提示缺少依赖包?
A: 在插件文件夹中运行 pip install -r requirements.txt 安装所有依赖。
5.2 使用问题
Q: API密钥在哪里设置?
A: 可以在节点中直接输入,或者在插件根目录创建.env文件设置:
OPENAI_API_KEY=你的密钥
Q: 本地模型怎么使用?
A: 先安装Ollama,然后在Provider选择Ollama,IP填127.0.0.1,端口填11434。
Q: 生成的内容不满意怎么办?
A: 尝试调整Temperature参数,或者优化Prompt的描述。
5.3 性能问题
Q: 处理很慢怎么办?
A: 可以启用缓存功能,或者选择更快的模型如gpt-4o-mini。
Q: 内存占用太大?
A: 定期清理缓存,或者减少批处理大小。
6. 实际应用案例
6.1 智能图片描述流程
- Load Image → Image Analysis → LLM Generator
- 用于自动生成图片的详细描述或标题
6.2 批量文本处理流程
- LLM Provider Selector → Template Selector → Batch Processor
- 用于批量翻译、总结或改写文本
6.3 对话式内容生成
- LLM Provider Selector → LLM Generator → Cache Manager
- 用于创建有记忆的对话系统
7. 总结
ComfyUI LLM Toolkit是一个功能强大且易于使用的智能文本处理插件。它最大的优势是:
- 简单易用:万能接口设计,连接简单
- 功能全面:涵盖文本生成、图片分析、批量处理等
- 灵活配置:支持多种模型和服务商
- 高效智能:内置缓存和批处理功能
无论你是想给图片自动添加描述,还是批量处理文本内容,或者创建智能对话系统,这个插件都能帮你轻松实现。记住,多多练习和实验,你会发现更多有趣的用法!