# ComfyUI_Pipeline_Tool插件——小白也能轻松下载AI模型的神器 ## 1. 插件简介 **插件地址**: https://github.com/smthemex/ComfyUI_Pipeline_Tool 这个插件就像一个专门帮你从网上下载AI模型的小助手!想象一下,你在网上看到一个很棒的AI模型,但下载起来特别麻烦,需要各种设置和命令。这个插件就是帮你解决这个烦恼的——它把复杂的下载过程变得像点外卖一样简单! **能给我们带来什么效果?** - 不用再为下载模型而头疼,一键搞定 - 自动帮你把模型文件整理到正确的文件夹 - 支持从抱脸网站(HuggingFace)快速下载各种AI模型 - 可以只下载你需要的特定文件,不用全盘下载 - 内置了加速下载的功能,下载速度更快 ## 2. 如何安装 ### 方法一:通过ComfyUI管理器安装(推荐) 1. 打开ComfyUI 2. 点击右下角的"Manager"按钮 3. 在搜索框输入"Pipeline Tool" 4. 找到这个插件后点击"Install" 5. 重启ComfyUI ### 方法二:手动安装 1. 在ComfyUI文件夹中找到`custom_nodes`文件夹 2. 在这个文件夹里打开命令行(按住Shift+右键,选择"在此处打开命令行") 3. 输入命令:`git clone https://github.com/smthemex/ComfyUI_Pipeline_Tool.git` 4. 重启ComfyUI ### 可选:安装魔搭加速(让下载更快) 如果你想要更快的下载速度,可以在命令行输入: ``` pip install modelscope ``` ## 3. 节点详解 ### 3.1 Pipeline Tool 节点是干嘛的? 这个节点就像一个"万能下载器",你告诉它你想要哪个模型,它就会自动帮你下载并放到正确的位置。就像你告诉外卖小哥你的地址,他就会把食物送到你家门口一样简单! ### 3.2 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 模型地址 | repo_id | 文本输入 | 根据需要 | 就像网店的商品链接,告诉插件你想下载哪个模型 | HuggingFace上模型的仓库ID | 填写格式:作者名/模型名,比如"runwayml/stable-diffusion-v1-5" | | 本地保存位置 | local_dir | 文本输入 | 留空或自定义 | 就像选择把下载的文件放在哪个文件夹里 | 指定模型下载到本地的路径 | 留空会自动放到ComfyUI的models文件夹,也可以写"D:/我的模型" | | 不下载的文件类型 | ignore_patterns | 下拉选择 | big_files | 就像告诉快递员"别给我送大件",只要小文件 | 指定哪些文件不下载 | 选择"big_files"只下载配置文件,"none"下载所有文件 | | 单个文件名 | get_single_model | 文本输入 | 留空或文件名 | 就像只买一个商品而不是整套,只下载特定文件 | 指定只下载某个特定文件 | 比如只要权重文件,就写"pytorch_model.bin" | | 使用令牌 | use_token | 是/否 | 否 | 就像VIP会员卡,有些模型需要特殊权限才能下载 | 是否使用HuggingFace的访问令牌 | 大部分免费模型选"否",私有模型选"是" | | 访问令牌 | token | 文本输入 | 留空或令牌 | 就像密码,证明你有权限下载某些特殊模型 | HuggingFace的访问令牌 | 在HuggingFace网站申请后填入,格式像"hf_xxxxx" | ### 3.3 CLI下载节点是干嘛的? 这个节点就像一个"离线下载器",你不需要打开ComfyUI就能下载模型。就像你可以在手机上预约洗衣服务,不用在家等着一样! ### 3.4 CLI下载节点参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 模型地址 | repo_id | 文本输入 | 根据需要 | 同上,告诉系统你想下载哪个模型 | HuggingFace模型仓库ID | 同上例子 | | 下载命令 | command | 文本输入 | 自动生成 | 就像一个下载指令,系统会自动生成 | 用于命令行下载的完整命令 | 通常自动生成,不需要手动修改 | | 使用CLI | use_cli | 是/否 | 是 | 就像选择"快递到家"还是"自提",选择下载方式 | 是否使用命令行方式下载 | 推荐选"是",速度更快 | ## 4. 使用技巧和建议 ### 4.1 新手推荐设置 - **ignore_patterns**: 选择"big_files",先下载小文件看看模型结构 - **local_dir**: 留空,让插件自动整理文件 - **use_token**: 选"否",除非你确定需要特殊权限 ### 4.2 省空间技巧 如果你的硬盘空间不够,可以这样做: 1. 先设置 ignore_patterns 为"big_files",只下载配置文件 2. 看看模型结构,确定需要哪些文件 3. 再用 get_single_model 只下载你需要的文件 ### 4.3 加速下载技巧 - 安装 modelscope(魔搭)可以大大提高下载速度 - 使用CLI方式下载比在ComfyUI里下载更快 - 网络不好的时候可以分批下载,先下载小文件 ## 5. 常见问题解答 ### Q1: 为什么下载失败? **A**: 检查以下几点: - 模型地址格式是否正确(必须是 作者名/模型名) - 网络连接是否正常 - 硬盘空间是否足够 - 是否需要令牌但没有提供 ### Q2: 下载的文件在哪里? **A**: 如果local_dir留空,文件会自动放在ComfyUI的models文件夹里。具体位置会在下载完成后显示。 ### Q3: 为什么下载速度很慢? **A**: - 试试安装 modelscope 加速 - 使用CLI方式下载 - 检查网络连接 - 选择只下载需要的文件 ### Q4: 什么时候需要使用令牌? **A**: - 下载私有模型时 - 下载有访问限制的模型时 - 看到"需要同意使用条款"的模型时 ### Q5: 插件占用C盘空间太多怎么办? **A**: - 在local_dir里指定其他盘符,如"D:/AI模型" - 使用ignore_patterns先下载小文件 - 定期清理不需要的模型文件 ## 6. 实际使用示例 ### 示例1:下载Stable Diffusion模型 1. repo_id填写:`runwayml/stable-diffusion-v1-5` 2. ignore_patterns选择:`big_files` 3. 其他参数保持默认 4. 点击运行,先下载配置文件 5. 确认需要后,再设置get_single_model为具体文件名下载 ### 示例2:下载特定文件 1. repo_id填写:`microsoft/DialoGPT-medium` 2. get_single_model填写:`pytorch_model.bin` 3. 其他参数保持默认 4. 点击运行,只下载这一个文件 ## 7. 注意事项 - 下载前确保硬盘空间充足,有些模型文件很大 - 首次使用建议先用ignore_patterns="big_files"试试水 - 记住模型地址格式必须是"作者名/模型名" - 网络不稳定时可以分批下载 - 定期清理不需要的模型文件释放空间 这个插件就像一个贴心的下载助手,让原本复杂的模型下载变得简单易懂。即使你是完全的新手,按照这个教程也能轻松上手!
ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44 ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com