ComfyUI-EACloudNodes 插件完全新手教程
1. 插件简介
插件地址: https://github.com/EnragedAntelope/ComfyUI-EACloudNodes
这个插件就像是给你的ComfyUI装了一个"网络大脑",让它能够连接到网上的各种人工智能服务。想象一下,你的ComfyUI原本只能处理图片,现在装了这个插件后,它还能跟网上的聊天机器人对话,让AI帮你写文字、分析图片、回答问题等等。
主要功能:
- 连接OpenRouter服务(就像一个AI模型的大超市,有很多免费和付费的AI可以选择)
- 连接Groq服务(一个超快的AI对话平台)
- 可以发送图片给AI让它帮你分析
- 支持文字对话和结构化输出
- 在云端ComfyUI环境中也能正常使用
2. 如何安装
方法一:使用ComfyUI管理器(推荐新手使用)
- 打开ComfyUI,点击右侧面板的"Manager"按钮
- 点击"Install Custom Nodes"
- 搜索"EACloudNodes"
- 点击"Install"按钮
- 重启ComfyUI
方法二:手动安装
- 打开命令行工具
- 进入ComfyUI的custom_nodes文件夹
- 运行以下命令:
git clone https://github.com/EnragedAntelope/ComfyUI-EACloudNodes
cd ComfyUI-EACloudNodes
pip install -r requirements.txt
- 重启ComfyUI
3. 节点详细解析
3.1 OpenRouter节点 - 万能AI对话盒子
这个节点就像一个"万能翻译机",可以连接到很多不同的AI模型。OpenRouter就像一个AI模型的大商场,里面有免费的也有付费的,你可以根据需要选择。
3.1.1 输入参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| API密钥 | api_key | 文本输入框 | 你的OpenRouter密钥 | 就像你的身份证,证明你有权限使用这个服务 | OpenRouter平台的访问凭证 | 去https://openrouter.ai/keys 申请一个免费账号,复制密钥填进去 |
| 模型选择 | model | 下拉菜单 | google/gemini-flash-1.5 | 选择你要使用的AI大脑,不同的大脑擅长不同的事情 | 选择特定的语言模型进行推理 | 选择"google/gemini-flash-1.5"适合日常对话,"Manual Input"可以手动输入其他模型 |
| 手动模型 | manual_model | 文本输入框 | 留空或填入模型名 | 当你选择"Manual Input"时,在这里填入你想要的AI模型名称 | 手动指定模型标识符 | 比如填入"anthropic/claude-3.5-sonnet"来使用Claude模型 |
| 基础网址 | base_url | 网址输入框 | https://openrouter.ai/api/v1/chat/completions | 就像邮寄地址,告诉ComfyUI要把你的问题发送到哪里 | API接口的基础URL地址 | 一般不需要改动,保持默认即可 |
| 系统提示 | system_prompt | 文本输入框 | 你是一个有用的助手 | 给AI设定一个"人设"或工作角色 | 定义AI的行为方式和回答风格 | 比如"你是一个专业的摄影师,请用专业术语回答" |
| 用户提示 | user_prompt | 文本输入框 | 你的问题 | 你想问AI的具体问题或要求 | 用户的主要询问内容 | "请帮我写一段关于春天的诗歌" |
| 温度 | temperature | 滑块 0.0-2.0 | 0.7 | 控制AI回答的"创意程度",就像调节创意水龙头 | 控制输出的随机性程度 | 0.1=很严谨,1.0=比较创意,1.8=非常天马行空 |
| 核心采样 | top_p | 滑块 0.0-1.0 | 0.9 | 控制AI选择词汇的"保守程度" | 核心采样的概率阈值 | 0.1=只用最常见的词,0.9=可以用更多样的词汇 |
| 词汇限制 | top_k | 滑块 1-1000 | 40 | 限制AI每次能选择的词汇数量 | 限制每步采样的词汇候选数量 | 40=从40个最可能的词中选择,数值越小越保守 |
| 最大生成数 | max_tokens | 数字输入框 | 1024 | 控制AI回答的最大长度,就像限制作文字数 | 限制生成文本的最大令牌数 | 100=短回答,1000=中等长度,2000=长回答 |
| 频率惩罚 | frequency_penalty | 滑块 -2.0-2.0 | 0.0 | 防止AI总是重复同样的词汇 | 对高频词汇的惩罚系数 | 0.5=轻微避免重复,1.0=明显避免重复 |
| 存在惩罚 | presence_penalty | 滑块 -2.0-2.0 | 0.0 | 鼓励AI使用更多不同的词汇 | 对已出现词汇的惩罚系数 | 0.5=鼓励用新词汇,1.0=强烈鼓励词汇多样化 |
| 重复惩罚 | repetition_penalty | 滑块 1.0-2.0 | 1.0 | 防止AI说话重复啰嗦 | 对重复内容的惩罚倍数 | 1.1=轻微避免重复,1.5=明显避免重复 |
| 响应格式 | response_format | 下拉菜单 | text | 选择AI回答的格式,是普通文字还是结构化数据 | 指定输出格式类型 | "text"=普通文字,"json_object"=结构化数据格式 |
| 种子模式 | seed_mode | 下拉菜单 | Random | 控制AI回答的"随机性",就像掷骰子的方式 | 控制随机种子的生成方式 | "Fixed"=每次一样,"Random"=每次不同,"Increment"=按顺序变化 |
| 最大重试 | max_retries | 数字输入框 | 3 | 如果网络出错,最多重试几次 | 遇到错误时的最大重试次数 | 3=重试3次,0=不重试,5=最多重试5次 |
| 图片输入 | image_input | 图片接口 | 连接图片节点 | 给AI看图片,让它帮你分析图片内容 | 支持视觉模型的图像输入 | 连接Load Image节点,让AI描述图片内容 |
| 额外参数 | additional_params | 文本输入框 | {} | 高级用户可以添加特殊设置 | 额外的模型参数JSON格式 | {"min_p": 0.1, "top_a": 0.8} |
3.1.2 输出参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 通俗解释 | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|
| 回答 | response | AI给你的回答内容 | 模型生成的文本响应 | 连接到"显示文本"节点来查看AI的回答 |
| 状态 | status | 显示这次对话的详细信息,比如用了多少个字 | 包含请求状态、模型信息、令牌计数等 | 可以查看花费了多少tokens,用了哪个模型 |
| 帮助 | help | 显示使用说明和帮助信息 | 静态帮助文本和仓库链接 | 新手可以看这里了解基本用法 |
3.2 OpenRouter模型查询节点 - AI模型清单管家
这个节点就像一个"AI模型的电话黄页",可以帮你查看OpenRouter上有哪些可用的AI模型,还能按照你的需求筛选和排序。
3.2.1 输入参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| API密钥 | api_key | 文本输入框 | 你的OpenRouter密钥 | 就像你的身份证,证明你有权限查看模型列表 | OpenRouter平台的访问凭证 | 使用和上面OpenRouter节点相同的密钥 |
| 筛选文本 | filter_text | 文本输入框 | free | 按关键词筛选模型,就像在商店里找特定商品 | 用于过滤模型的搜索关键词 | 输入"free"找免费模型,"gpt"找GPT系列,"claude"找Claude系列 |
| 排序方式 | sort_by | 下拉菜单 | name | 选择按什么标准给模型排序 | 模型列表的排序依据 | "name"=按名称排序,"pricing"=按价格排序,"context"=按上下文长度排序 |
| 排序顺序 | sort_order | 下拉菜单 | ascending | 选择是从小到大还是从大到小排序 | 排序的升降序选择 | "ascending"=从小到大,"descending"=从大到小 |
3.2.2 输出参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 通俗解释 | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|
| 模型列表 | models | 显示筛选后的模型清单,包含名称、价格、功能等信息 | 格式化的模型信息列表 | 连接到"显示文本"节点查看可用模型 |
3.3 Groq节点 - 超级快速AI对话盒子
这个节点就像一个"超级跑车版的AI助手",连接到Groq平台,特点是回答速度超快,但模型选择相对较少。
3.3.1 输入参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| API密钥 | api_key | 文本输入框 | 你的Groq密钥 | 就像你的身份证,证明你有权限使用Groq服务 | Groq平台的访问凭证 | 去https://console.groq.com/keys 申请一个免费账号,复制密钥填进去 |
| 模型选择 | model | 下拉菜单 | llama3-8b-8192 | 选择你要使用的Groq AI模型 | 选择特定的语言模型进行推理 | "llama3-8b-8192"适合日常对话,"Manual Input"可以手动输入其他模型 |
| 手动模型 | manual_model | 文本输入框 | 留空或填入模型名 | 当你选择"Manual Input"时,在这里填入你想要的AI模型名称 | 手动指定模型标识符 | 比如填入新发布的模型名称 |
| 用户提示 | user_prompt | 文本输入框 | 你的问题 | 你想问AI的具体问题或要求 | 用户的主要询问内容 | "请帮我总结一下这篇文章的要点" |
| 系统提示 | system_prompt | 文本输入框 | 你是一个有用的助手 | 给AI设定一个"人设"或工作角色 | 定义AI的行为方式和回答风格 | "你是一个专业的代码审查员,请仔细检查代码问题" |
| 发送系统 | send_system | 开关 | on | 是否发送系统提示给AI(使用图片功能时需要关闭) | 控制是否发送系统消息 | 普通对话开启,图片分析时关闭 |
| 温度 | temperature | 滑块 0.0-2.0 | 0.7 | 控制AI回答的"创意程度",就像调节创意水龙头 | 控制输出的随机性程度 | 0.1=很严谨,1.0=比较创意,1.8=非常天马行空 |
| 核心采样 | top_p | 滑块 0.0-1.0 | 0.9 | 控制AI选择词汇的"保守程度" | 核心采样的概率阈值 | 0.1=只用最常见的词,0.9=可以用更多样的词汇 |
| 最大完成数 | max_completion_tokens | 数字输入框 | 1024 | 控制AI回答的最大长度 | 限制生成文本的最大令牌数 | 100=短回答,1000=中等长度,2000=长回答 |
| 频率惩罚 | frequency_penalty | 滑块 -2.0-2.0 | 0.0 | 防止AI总是重复同样的词汇 | 对高频词汇的惩罚系数 | 0.5=轻微避免重复,1.0=明显避免重复 |
| 存在惩罚 | presence_penalty | 滑块 -2.0-2.0 | 0.0 | 鼓励AI使用更多不同的词汇 | 对已出现词汇的惩罚系数 | 0.5=鼓励用新词汇,1.0=强烈鼓励词汇多样化 |
| 响应格式 | response_format | 下拉菜单 | text | 选择AI回答的格式 | 指定输出格式类型 | "text"=普通文字,"json_object"=结构化数据格式 |
| 种子模式 | seed_mode | 下拉菜单 | Random | 控制AI回答的"随机性" | 控制随机种子的生成方式 | "Fixed"=每次一样,"Random"=每次不同,"Increment"=按顺序变化 |
| 最大重试 | max_retries | 数字输入框 | 3 | 如果网络出错,最多重试几次 | 遇到错误时的最大重试次数 | 3=重试3次,0=不重试,5=最多重试5次 |
| 图片输入 | image_input | 图片接口 | 连接图片节点 | 给AI看图片,让它帮你分析图片内容 | 支持视觉模型的图像输入 | 连接Load Image节点,让AI描述图片内容 |
| 额外参数 | additional_params | 文本输入框 | {} | 高级用户可以添加特殊设置 | 额外的模型参数JSON格式 | {"min_p": 0.1} |
3.3.2 输出参数详解
| 参数名 (UI显示) | 参数名 (代码里) | 通俗解释 | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|
| 回答 | response | AI给你的回答内容 | 模型生成的文本响应 | 连接到"显示文本"节点来查看AI的回答 |
| 状态 | status | 显示这次对话的详细信息,包括速度、用量等 | 包含请求状态、模型信息、令牌计数等 | 可以查看响应时间、花费了多少tokens |
| 帮助 | help | 显示使用说明和帮助信息 | 静态帮助文本和仓库链接 | 新手可以看这里了解基本用法 |
4. 使用技巧和建议
4.1 选择合适的模型
- 日常对话:推荐使用OpenRouter的免费模型,如google/gemini-flash-1.5
- 代码相关:使用专门的编程模型
- 图片分析:选择带有"vision"字样的模型
- 快速响应:优先选择Groq节点
4.2 参数调节技巧
- 创意写作:temperature设置为0.8-1.2,top_p设置为0.9
- 事实性回答:temperature设置为0.1-0.3,top_p设置为0.3-0.5
- 避免重复:适当调高frequency_penalty和presence_penalty到0.3-0.8
4.3 成本控制
- 优先使用免费模型进行测试
- 合理设置max_tokens避免不必要的长回答
- 通过status输出监控token使用量
4.4 工作流程建议
- 简单文本对话:加载节点 → 设置API密钥 → 选择模型 → 输入问题 → 连接显示文本
- 图片分析:加载图片 → 连接到vision模型 → 输入关于图片的问题 → 查看分析结果
- 批量处理:使用seed_mode的"Increment"模式,可以让每次生成略有不同的结果
5. 常见问题解答
5.1 API密钥相关
问:在哪里获取API密钥?
答:
- OpenRouter:访问 https://openrouter.ai/keys 注册免费账号
- Groq:访问 https://console.groq.com/keys 注册免费账号
问:API密钥会在工作流程中显示吗?
答:是的,密钥会在工作流程中可见,请注意保护隐私,不要分享包含密钥的工作流程文件。
5.2 模型选择问题
问:应该选择哪个模型?
答:
- 新手推荐:OpenRouter的免费模型
- 需要速度:Groq的llama模型
- 需要图片分析:选择名称中包含"vision"的模型
问:Manual Input怎么用?
答:选择"Manual Input"后,在manual_model字段输入具体的模型名称,比如"anthropic/claude-3.5-sonnet"。
5.3 技术问题
问:网络连接失败怎么办?
答:
- 检查网络连接
- 确认API密钥正确
- 适当增加max_retries重试次数
- 查看status输出了解具体错误信息
问:图片分析不工作?
答:
- 确保选择了支持视觉的模型(名称包含"vision")
- 对于Groq模型,需要将send_system设置为"no"
- 检查图片格式是否支持
5.4 输出格式问题
问:如何获得结构化输出?
答:将response_format设置为"json_object",并在提示中明确要求JSON格式输出。
6. 实际应用案例
6.1 图片内容分析工作流程
- 使用"Load Image"节点加载图片
- 添加OpenRouter节点,选择支持视觉的模型
- 将图片连接到image_input接口
- 在user_prompt中输入"请描述这张图片的内容"
- 连接显示文本节点查看结果
6.2 创意写作助手工作流程
- 添加OpenRouter节点
- 在system_prompt中设置"你是一个创意写作助手"
- 将temperature设置为0.9,激发创意
- 在user_prompt中输入写作需求
- 连接显示文本节点获取创作内容
6.3 多轮对话工作流程
- 使用多个节点创建对话链
- 将前一个节点的response连接到后一个节点的user_prompt
- 使用seed_mode的"Increment"模式保持对话的连贯性
- 通过系统提示维持对话主题
7. 进阶技巧
7.1 链式对话
你可以将多个节点连接起来,创建复杂的对话链。比如:
- 第一个节点:分析图片内容
- 第二个节点:根据图片分析结果写一首诗
- 第三个节点:将诗歌翻译成英文
7.2 条件分支
结合ComfyUI的其他节点,可以根据AI的回答创建不同的处理分支。
7.3 批量处理
使用循环节点结合这些AI节点,可以实现批量图片分析或文本处理。
这个插件为ComfyUI带来了强大的文本和视觉AI功能,无论是日常创作还是专业用途,都能大大提升你的工作效率。记住,多多实践是掌握这些工具的最好方法!