ComfyUI-Tara-LLM-Integration 插件完全教程
1. 插件简介
插件地址: https://github.com/ronniebasak/ComfyUI-Tara-LLM-Integration
这个插件就像是给ComfyUI装了一个超级智能的文字助手。它能让你在ComfyUI里直接和各种AI聊天机器人对话,让它们帮你写更好的提示词、改进你的创意想法,甚至帮你做复杂的文字处理工作。
能给我们带来什么效果?
- 智能提示词优化:把你写的简单提示词变成专业级的详细描述
- 创意文案生成:让AI帮你写各种创意文案、故事情节
- 多轮对话处理:可以让多个AI节点像接力赛一样,一个接一个地处理你的内容
- 多平台支持:支持OpenAI的GPT、Groq等多种AI服务,就像有多个不同专长的助手
这个插件特别适合想要提升创作质量的朋友,它就像给你配了一个24小时在线的创意顾问团队。
2. 如何安装
2.1 通过ComfyUI管理器安装(推荐)
- 打开ComfyUI管理器
- 点击"通过Git URL安装"
- 粘贴链接:
https://github.com/ronniebasak/ComfyUI-Tara-LLM-Integration.git - 重启ComfyUI并刷新浏览器
2.2 手动安装
cd ComfyUI/custom_nodes/
git clone https://github.com/ronniebasak/ComfyUI-Tara-LLM-Integration.git
注意: 使用前需要准备AI服务的密钥(就像门卡一样),支持OpenAI和Groq等服务。
3. 节点逐一解析
3.1 Tara Advanced LLM Node 节点
这个节点是干嘛的?
这是一个超级智能的提示词优化师,它会根据你的指导和原始提示词,生成更专业、更详细的正面和负面提示词。就像把你的草稿交给专业编辑,让他帮你润色成完美的文案。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| llm_config | llm_config | TARA_LLM_CONFIG类型 | - | AI助手的配置信息,像是助手的身份证 | LLM配置对象 | 连接Tara LLM Config节点的输出 |
| guidance | guidance | 多行文本 | - | 给AI的指导说明,告诉它你想要什么风格 | 系统指导提示 | 写"帮我生成动漫风格的提示词" |
| prompt_positive | prompt_positive | 多行文本 | - | 你的原始正面提示词,描述想要的效果 | 正向提示词输入 | 写"美丽的女孩,长发" |
| prompt_negative | prompt_negative | 多行文本 | 可选 | 你的原始负面提示词,描述不想要的效果 | 负向提示词输入 | 写"模糊,低质量" |
3.2 Tara Advanced LLM Composition Node 节点
这个节点是干嘛的?
这是一个智能文字处理器,它可以根据你的指导和多种输入内容,生成各种类型的文字内容。就像一个万能的文字工匠,能根据你的要求制作任何类型的文案。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| llm_config | llm_config | TARA_LLM_CONFIG类型 | - | AI助手的配置信息 | LLM配置对象 | 连接Tara LLM Config节点的输出 |
| guidance | guidance | 多行文本 | - | 给AI的工作指导,告诉它要做什么任务 | 系统指导提示 | 写"帮我写一个产品介绍" |
| prompt | prompt | 多行文本 | 可选 | 主要的输入内容或问题 | 主要提示输入 | 写"这是一款新的智能手机" |
| positive | positive | 多行文本 | 可选 | 正面的参考信息或要求 | 正向条件输入 | 写"强调性能和拍照功能" |
| negative | negative | 多行文本 | 可选 | 负面的参考信息或限制 | 负向条件输入 | 写"不要提到价格" |
3.3 Tara LLM API Key Loader 节点
这个节点是干嘛的?
这是一个密钥管理员,它会从之前保存的地方取出AI服务的密钥。就像从保险箱里取出门卡,让你能够使用AI服务。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| model | model | 模型列表 | groq/mixtral-8x7b-32768 | 选择要使用的AI模型,像选择不同专长的助手 | 选择LLM模型 | 选择groq的免费模型 |
| temporary | temporary | True/False | False | 是否从临时位置读取密钥,像选择保险箱位置 | 是否使用临时存储 | False表示从永久位置读取 |
3.4 Tara LLM API Key Saver 节点
这个节点是干嘛的?
这是一个密钥保管员,它会把你的AI服务密钥安全地保存起来。就像把门卡放进保险箱,方便以后使用但保证安全。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| provider | provider | groq/openai/together | groq | 选择AI服务提供商,像选择银行 | API服务提供商 | 选groq可以免费使用 |
| api_key | api_key | 文本 | - | 你的AI服务密钥,像银行卡密码 | API访问密钥 | 输入从官网获取的密钥 |
| temporary | temporary | True/False | False | 是否临时保存,像选择保险箱类型 | 是否临时存储 | False表示永久保存 |
3.5 Tara LLM Config Node 节点
这个节点是干嘛的?
这是一个AI助手配置器,它让你可以详细设置AI助手的各种参数。就像给助手写详细的工作说明书,告诉它怎么工作最好。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| base_url | base_url | 网址文本 | http://localhost:11434/v1 | AI服务的网址,像助手的办公地址 | API基础URL | 本地服务用localhost,在线服务用官方网址 |
| api_key | api_key | 文本 | - | 你的AI服务密钥 | API访问密钥 | 输入你的密钥字符串 |
| llm_model | llm_model | 文本 | mixtral | 要使用的AI模型名称 | 模型名称 | 写"gpt-3.5-turbo"或"mixtral" |
| temperature | temperature | 0.0-2.0 | 0.4 | 创意程度,像调节助手的想象力 | 生成随机性控制 | 0.1很保守,1.0很有创意 |
| seed | seed | 整数 | 42 | 随机种子,像掷骰子的起始数字 | 随机种子值 | 固定数字保证结果一致 |
| max_tokens | max_tokens | 整数 | 1000 | 最大回答长度,像限制助手说话的字数 | 最大生成令牌数 | 1000字适合大多数情况 |
| top_p | top_p | 0.0-1.0 | 1.0 | 词汇选择范围,像限制助手的词汇量 | 核采样参数 | 1.0使用全部词汇,0.5更保守 |
| frequency_penalty | frequency_penalty | -2.0-2.0 | 0.0 | 重复惩罚,防止助手说重复的话 | 频率惩罚系数 | 0.3可以减少重复 |
| presence_penalty | presence_penalty | -2.0-2.0 | 0.0 | 话题惩罚,鼓励助手谈论新话题 | 存在惩罚系数 | 0.3鼓励更多样的内容 |
| timeout | timeout | 整数 | 60 | 等待时间,像给助手思考的时间限制 | 请求超时时间(秒) | 60秒适合大多数情况 |
3.6 Tara Preset LLM Config Node 节点
这个节点是干嘛的?
这是一个快速配置器,它提供了预设好的AI助手配置模板。就像选择餐厅的套餐,不用一个个点菜,直接选择搭配好的组合。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| llm_models | llm_models | 模型列表 | groq/mixtral-8x7b-32768 | 选择预设的AI模型套餐 | 预设模型选择 | 选择groq的免费模型 |
| temperature | temperature | 0.0-2.0 | 0.4 | 创意程度调节 | 生成随机性控制 | 0.4适合大多数创作任务 |
| seed | seed | 整数 | 42 | 随机种子设置 | 随机种子值 | 42是常用的默认值 |
| max_tokens | max_tokens | 整数 | 1000 | 最大回答长度限制 | 最大生成令牌数 | 1000字够用大多数情况 |
| top_p | top_p | 0.0-1.0 | 1.0 | 词汇选择范围控制 | 核采样参数 | 1.0给AI最大的词汇自由度 |
| frequency_penalty | frequency_penalty | -2.0-2.0 | 0.0 | 重复内容惩罚设置 | 频率惩罚系数 | 0.0表示不惩罚重复 |
| presence_penalty | presence_penalty | -2.0-2.0 | 0.0 | 新话题鼓励设置 | 存在惩罚系数 | 0.0表示不特别鼓励新话题 |
| timeout | timeout | 整数 | 60 | 响应等待时间设置 | 请求超时时间(秒) | 60秒是合理的等待时间 |
| use_loader | use_loader | True/False | True | 是否使用密钥加载器,像选择是否用保险箱 | 是否使用API密钥加载器 | True会自动加载保存的密钥 |
| loader_temporary | loader_temporary | True/False | False | 是否从临时位置加载密钥 | 是否使用临时密钥存储 | False从永久位置加载 |
| api_key | api_key | 文本 | 可选 | 手动输入的密钥,当不用加载器时使用 | 手动输入的API密钥 | 当use_loader为False时填写 |
3.7 (Deprecated) Tara LLM Primary Node 节点
这个节点是干嘛的?
这是一个已经过时的提示词优化器,功能和新版的Advanced节点类似,但配置方式比较老旧。就像老款手机,虽然还能用但不推荐了。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| api_key | api_key | 文本 | - | AI服务密钥,需要手动输入 | API访问密钥 | 直接输入密钥字符串 |
| model | model | 模型列表 | groq/mixtral-8x7b-32768 | 选择AI模型 | 模型选择 | 建议选择groq的免费模型 |
| guidance | guidance | 多行文本 | - | 给AI的指导说明 | 系统指导提示 | 告诉AI你想要什么风格的提示词 |
| prompt_positive | prompt_positive | 多行文本 | - | 原始正面提示词 | 正向提示词输入 | 输入你想优化的提示词 |
| prompt_negative | prompt_negative | 多行文本 | - | 原始负面提示词 | 负向提示词输入 | 输入你不想要的效果描述 |
3.8 (Deprecated) Tara LLM Daisy Chain Node 节点
这个节点是干嘛的?
这是一个已经过时的文字处理链条节点,可以把多个处理步骤连接起来。就像工厂的流水线,一个工序接一个工序处理内容,但现在有更好的替代品了。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| api_key | api_key | 文本 | - | AI服务密钥 | API访问密钥 | 手动输入你的密钥 |
| model | model | 模型列表 | groq/mixtral-8x7b-32768 | 选择AI模型 | 模型选择 | 选择合适的AI模型 |
| temperature | temperature | 0.0-2.0 | 0.4 | 创意程度控制 | 生成随机性控制 | 0.4是平衡的设置 |
| max_tokens | max_tokens | 整数 | 1000 | 最大回答长度 | 最大生成令牌数 | 1000字适合大多数任务 |
| top_p | top_p | 0.0-1.0 | 1.0 | 词汇选择范围 | 核采样参数 | 1.0给AI最大自由度 |
| frequency_penalty | frequency_penalty | 0.0-2.0 | 0.0 | 重复惩罚设置 | 频率惩罚系数 | 0.3可以减少重复内容 |
| presence_penalty | presence_penalty | 0.0-2.0 | 0.0 | 新话题鼓励设置 | 存在惩罚系数 | 0.0是默认设置 |
| guidance | guidance | 多行文本 | - | 给AI的工作指导 | 系统指导提示 | 告诉AI要完成什么任务 |
| prompt | prompt | 多行文本 | 可选 | 主要输入内容 | 主要提示输入 | 可以连接其他节点的输出 |
| positive | positive | 多行文本 | 可选 | 正面参考信息 | 正向条件输入 | 可以连接其他节点的输出 |
| negative | negative | 多行文本 | 可选 | 负面参考信息 | 负向条件输入 | 可以连接其他节点的输出 |
4. 使用技巧和建议
4.1 新手推荐流程
- 第一步:使用Tara API Key Saver保存你的密钥
- 第二步:使用Tara Preset LLM Config快速配置
- 第三步:使用Tara Advanced LLM Node优化提示词
4.2 密钥管理建议
- 免费选择:推荐使用Groq服务,目前免费且效果不错
- 安全存储:使用API Key Saver节点安全保存密钥
- 临时使用:如果担心安全,可以直接在节点中输入密钥
4.3 参数调节技巧
- 创意控制:temperature越高越有创意,0.1-0.4适合正式内容,0.7-1.0适合创意内容
- 长度控制:max_tokens控制回答长度,短文案用500,长文章用2000
- 重复控制:frequency_penalty设为0.3可以减少重复内容
4.4 常用组合推荐
- 提示词优化:Preset Config + Advanced LLM Node
- 多轮处理:Advanced Composition Node串联使用
- 批量处理:多个Composition Node并行处理不同内容
5. 常见问题解答
Q: 如何获取免费的AI服务密钥?
A: 推荐使用Groq服务,访问console.groq.com注册即可获得免费密钥。
Q: 为什么AI回答很奇怪或不相关?
A: 检查guidance参数,要给AI明确的指导说明,告诉它具体要做什么。
Q: 如何让AI生成更有创意的内容?
A: 提高temperature参数到0.7-1.0,降低top_p到0.8左右。
Q: 密钥保存后找不到怎么办?
A: 检查temporary参数设置,False表示永久保存,True表示临时保存。
Q: 可以同时使用多个AI服务吗?
A: 可以,保存不同服务的密钥,然后在不同节点中选择不同的模型。
Q: 哪些节点已经过时了?
A: 标记为"Deprecated"的节点已过时,建议使用Advanced版本的节点。
6. 实用案例分享
6.1 提示词优化案例
原始提示词:美丽的女孩
优化后:一位拥有精致五官的年轻女性,长长的波浪卷发在微风中轻舞,温暖的阳光洒在她的脸庞上,展现出自然而迷人的笑容
6.2 创意文案生成案例
输入指导:帮我写一个咖啡店的宣传文案
AI输出:在这里,每一杯咖啡都是一个故事的开始。香醇的豆香唤醒沉睡的味蕾,温暖的空间承载着无数个美好时光...
6.3 多轮优化案例
第一轮:生成基础内容 → 第二轮:添加情感色彩 → 第三轮:优化语言表达
7. 总结
ComfyUI-Tara-LLM-Integration插件为ComfyUI带来了强大的AI文字处理能力,通过8个精心设计的节点,你可以:
- 智能优化提示词:让AI帮你写出更专业的提示词
- 创作各类文案:从产品介绍到创意故事,应有尽有
- 多轮协作处理:让多个AI节点协作完成复杂任务
- 安全管理密钥:方便且安全地管理各种AI服务密钥
重要提醒:
- 推荐使用新版的Advanced节点,避免使用标记为Deprecated的旧节点
- Groq服务目前免费且效果不错,适合新手试用
- 合理设置参数能显著提升AI回答质量
这个插件让ComfyUI不仅能生成图像,还能智能处理文字,真正实现了多媒体创作的完美结合。