# ComfyUI-AniDoc 插件完全使用手册 ## 1. 插件简介 ComfyUI-AniDoc 是一个专门用来给线稿动画自动上色的神奇插件!想象一下,你有一堆黑白的卡通线稿,这个插件就像一个超级智能的上色师傅,能够根据你提供的参考图片,自动给整个动画序列上色,而且还能保证前后帧之间的颜色连贯性。 **插件原地址:** https://github.com/LucipherDev/ComfyUI-AniDoc 这个插件的核心功能就是: - 把黑白线稿动画变成彩色动画 - 根据参考图片自动匹配颜色 - 保证动画播放时颜色不会乱跳 - 大大减少手工上色的工作量 就像你拿着一张彩色的参考图给画师看,然后画师就能把整个动画都按照这个风格上色一样! ## 2. 如何安装 ### 方法一:ComfyUI Manager 安装(推荐) 1. 打开 ComfyUI Manager 2. 搜索 "AniDoc" 3. 点击安装 4. 重启 ComfyUI ### 方法二:手动安装 1. 打开命令行,进入 ComfyUI 的 custom_nodes 文件夹 ```bash cd ComfyUI/custom_nodes ``` 2. 下载插件 ```bash git clone https://github.com/LucipherDev/ComfyUI-AniDoc ``` 3. 安装依赖 ```bash cd ComfyUI-AniDoc python install.py ``` **重要提示:** 这个插件需要 ComfyUI-VideoHelperSuite 插件才能正常工作,记得一起安装! ## 3. 节点详细解析 ### 3.1 AniDocLoader 节点 - 模型加载器 这个节点就像一个"工具箱管理员",负责把所有需要的AI模型都准备好,让后面的节点能够正常工作。 #### 3.1.1 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | |:---|:---|:---|:---|:---|:---|:---| | 模型路径 | model_path | 文件路径 | 默认路径 | 告诉程序AI模型文件放在哪里 | 指定AniDoc模型的存储路径 | 一般保持默认就行,除非你把模型放在别的地方 | | 设备类型 | device | cuda/cpu | cuda | 选择用显卡还是CPU来运行 | 指定计算设备类型 | 有独立显卡选cuda,没有就选cpu | | 精度类型 | dtype | float16/float32 | float16 | 选择计算精度,影响速度和显存占用 | 设置浮点数精度类型 | float16省显存跑得快,float32精度高但慢 | ### 3.2 LoadCoTracker 节点 - 运动跟踪器 这个节点就像一个"眼睛",专门负责观察动画中物体是怎么移动的,为后面的上色提供运动信息。 #### 3.2.1 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | |:---|:---|:---|:---|:---|:---|:---| | 跟踪器路径 | tracker_path | 文件路径 | 默认路径 | 告诉程序运动跟踪模型在哪里 | 指定CoTracker模型文件路径 | 保持默认就行,会自动下载到正确位置 | | 设备类型 | device | cuda/cpu | cuda | 选择用显卡还是CPU来计算 | 指定计算设备 | 有显卡就用cuda,速度快很多 | | 网格大小 | grid_size | 数字 | 50 | 控制跟踪点的密度 | 设置跟踪网格的大小 | 数字越大跟踪越精细,但也越慢 | | 最大跟踪点 | max_points | 数字 | 256 | 最多能跟踪多少个点 | 限制同时跟踪的点数量 | 太多会卡,太少跟踪不准 | ### 3.3 GetAniDocControlnetImages 节点 - 控制图像生成器 这个节点就像一个"翻译官",把你的线稿转换成AI能理解的控制信号,告诉AI该怎么上色。 #### 3.3.1 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | |:---|:---|:---|:---|:---|:---|:---| | 输入图像 | input_images | 图像序列 | - | 你要上色的线稿动画帧 | 输入的原始图像序列 | 把你的黑白线稿连接到这里 | | 预处理类型 | preprocess_type | 选项 | lineart | 选择线稿的处理方式 | 图像预处理方法 | lineart适合线稿,canny适合边缘检测 | | 线条粗细 | line_thickness | 1-10 | 2 | 控制识别的线条粗细 | 线条检测的敏感度 | 线稿很细选1-2,很粗选3-5 | | 对比度 | contrast | 0.5-2.0 | 1.0 | 调整线稿的对比度 | 图像对比度调整 | 线稿太淡调高一点,太浓调低一点 | ### 3.4 AniDocSampler 节点 - 动画上色采样器 这个节点是整个插件的核心,就像一个"超级上色师",负责根据参考图片给你的线稿动画上色。 #### 3.4.1 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | |:---|:---|:---|:---|:---|:---|:---| | 管道 | pipe | 管道对象 | - | 接收处理流程 | AniDoc处理管道 | 从AniDocLoader节点连接过来 | | 控制图像 | controlnet_images | 图像序列 | - | 从上一个节点来的控制信号 | ControlNet控制图像 | 从GetAniDocControlnetImages连接 | | 参考图像 | reference_image | 图像 | - | 告诉AI按什么颜色上色 | 参考图像用于颜色匹配 | 找一张你想要的彩色图片 | | 重复匹配 | repeat_match | true/false | true | 是否重复匹配颜色 | 启用重复匹配算法 | 开启能让颜色更稳定 | | 协同跟踪 | cotracker | 字典 | - | 运动跟踪的设置 | 运动跟踪参数配置 | 从LoadCoTracker节点连接 | | 帧率 | fps | 数字 | 7 | 动画每秒多少帧 | 输出视频的帧率 | 7帧够用,太高文件会很大 | | 采样步数 | steps | 数字 | 25 | AI计算多少步 | 扩散模型采样步数 | 越多越精细,但越慢 | | 噪声增强 | noise_aug | 0-1 | 0.02 | 添加一点随机性 | 噪声增强强度 | 让动画看起来更自然 | | 随机种子 | seed | 数字 | 0 | 控制随机性 | 随机数种子 | 0是随机,固定数字结果稳定 | | 运动桶 | motion_bucket | 数字 | 127 | 控制运动强度 | 运动强度参数 | 数字越大动作越明显 | | 解码块大小 | decode_chunk_size | 数字 | 8 | 一次处理多少帧 | 批处理大小 | 显存小就调小一点 | | 设备 | device | cuda/cpu | cuda | 用什么设备计算 | 计算设备类型 | 有显卡就用cuda | | 数据类型 | dtype | float16/float32 | float16 | 计算精度 | 浮点数精度 | float16省显存 | ## 4. 使用技巧和建议 ### 4.1 准备工作 - **线稿要求**:线条清晰,对比度高,最好是黑白分明的线稿 - **参考图片**:选择色彩丰富、风格统一的图片作为参考 - **帧数限制**:插件最好用于14帧的短动画,虽然也支持更多帧数(测试过72帧) ### 4.2 参数调优建议 - **新手推荐**:先用默认参数试试效果 - **显存不足**:把 `decode_chunk_size` 调小到 4 或 2 - **要求精度**:把 `steps` 调高到 50,`dtype` 改为 float32 - **动作太大**:降低 `motion_bucket` 的值 - **颜色不稳定**:确保 `repeat_match` 设为 true ### 4.3 工作流程建议 1. 先用 AniDocLoader 加载模型 2. 用 LoadCoTracker 准备运动跟踪 3. 用 GetAniDocControlnetImages 处理线稿 4. 最后用 AniDocSampler 进行上色 5. 可以配合 VideoHelperSuite 的节点保存结果 ## 5. 常见问题解答 ### Q1:显存不够怎么办? **答**:把 `decode_chunk_size` 调小,从 8 改到 4 或 2。同时把 `dtype` 保持在 float16。 ### Q2:上色效果不理想? **答**:检查参考图片是否合适,线稿是否清晰。可以尝试调整 `steps` 参数,增加到 30-50。 ### Q3:动画播放时颜色跳跃? **答**:确保 `repeat_match` 设为 true,同时检查 `cotracker` 设置是否正确。 ### Q4:处理速度太慢? **答**:降低 `steps` 到 15-20,使用 `cuda` 设备,确保 `dtype` 为 float16。 ### Q5:支持多少帧的动画? **答**:官方建议14帧,但测试中72帧也能工作。帧数越多,处理时间越长。 ## 6. 进阶使用技巧 ### 6.1 批量处理 如果你有很多动画需要处理,可以: - 固定 `seed` 值保证结果一致 - 使用相同的参考图片保持风格统一 - 调整 `decode_chunk_size` 平衡速度和显存 ### 6.2 风格控制 - 换不同的参考图片可以得到不同的上色风格 - 调整 `noise_aug` 可以增加或减少随机性 - `motion_bucket` 影响动作的流畅度 ### 6.3 质量优化 - 关键帧手动检查,确保重要帧的效果 - 可以多次尝试不同的 `seed` 值 - 结合其他后处理插件进一步优化 这个插件让动画制作变得简单多了,不再需要逐帧手工上色!希望这份教程能帮助你快速上手这个神奇的工具。记住,多练习多尝试,你会发现更多有趣的用法!
ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44 ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com