ComfyUI-TeaCache 插件保姆级教程
1. 插件简介
插件地址: https://github.com/welltop-cn/ComfyUI-TeaCache
ComfyUI-TeaCache 是一个超级厉害的加速插件!它就像给你的 AI 图片和视频生成装了一个"智能缓存器"。
这个插件能干啥?
- 让你的图片生成速度提升 1.5 到 3 倍!就像原来需要 10 分钟的工作,现在只要 3-5 分钟
- 支持超多热门模型:FLUX、HunyuanVideo、LTX-Video、CogVideoX、Wan2.1 等等
- 画质损失很小,肉眼几乎看不出区别
- 使用超简单,只需要连接一个节点就搞定
工作原理(大白话版):
想象你在画画,每次画新的一笔之前,你都要重新调色、重新构思。TeaCache 就像一个聪明的助手,它会记住你之前的调色和构思,当发现新的一笔和之前很相似时,就直接用之前的结果,这样就大大节省了时间。
2. 如何安装
方法一:通过 ComfyUI-Manager 安装(推荐)
- 打开 ComfyUI
- 点击右下角的 "Manager" 按钮
- 在搜索框里输入 "TeaCache"
- 找到 "ComfyUI-TeaCache" 点击安装
- 重启 ComfyUI
方法二:手动安装
- 找到你的 ComfyUI 文件夹,进入
custom_nodes目录 - 在这里打开命令行(终端)
- 输入命令:
git clone https://github.com/welltop-cn/ComfyUI-TeaCache.git - 进入插件文件夹:
cd ComfyUI-TeaCache - 安装依赖:
pip install -r requirements.txt - 重启 ComfyUI
3. 节点详细解析
当前插件包含节点总数:3 个
本次输出节点数:3 个
剩余未输出节点数:0 个
3.1 TeaCache 节点 - 主要加速节点
这个节点是干嘛的?
这是插件的核心节点,就像给你的 AI 模型装了一个"记忆芯片"。它会智能地判断什么时候可以重复使用之前的计算结果,从而大幅提升生成速度。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| model | model | MODEL类型 | - | 这是你要加速的 AI 模型,就像要改装的汽车 | 输入的扩散模型对象 | 连接"加载扩散模型"节点的输出 |
| model_type | model_type | 下拉选择 | flux | 告诉插件你用的是哪种 AI 模型,就像告诉修车师傅你的车是什么牌子 | 支持的模型类型标识符 | FLUX选flux,视频模型选对应类型 |
| rel_l1_thresh | rel_l1_thresh | 0.0-10.0 | 0.4 | 控制加速强度的旋钮,数值越小加速越猛但可能影响质量 | 相对L1距离阈值,控制缓存触发条件 | 画质不满意就调小,速度不够就调大 |
| start_percent | start_percent | 0.0-1.0 | 0.0 | 从生成过程的百分之几开始使用加速,就像汽车从几档开始用涡轮增压 | 开始应用TeaCache的步数百分比 | 一般保持0,特殊情况可以调到0.1 |
| end_percent | end_percent | 0.0-1.0 | 1.0 | 到生成过程的百分之几停止使用加速 | 停止应用TeaCache的步数百分比 | 一般保持1.0,除非有特殊需求 |
| cache_device | cache_device | cuda/cpu | cuda | 缓存数据存放的地方,cuda是显卡内存(快但占显存),cpu是内存(慢但不占显存) | 缓存设备选择 | 显存够用选cuda,显存紧张选cpu |
3.2 CompileModel 节点 - 模型编译优化节点
这个节点是干嘛的?
这个节点就像给你的 AI 模型做了一次"深度优化",把模型的运行代码重新编译成更高效的版本。第一次使用会比较慢(编译需要时间),但之后每次运行都会超级快。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| model | model | MODEL类型 | - | 要优化的 AI 模型,就像要升级的软件 | 输入的扩散模型对象 | 连接TeaCache节点或模型加载节点 |
| mode | mode | 下拉选择 | default | 编译优化的强度等级,就像游戏的画质设置 | torch.compile的模式选择 | 一般用default,追求极致速度用max-autotune |
| backend | backend | 下拉选择 | inductor | 编译器的类型,就像选择不同的翻译软件 | 编译后端选择 | 一般用inductor,有问题可以试试eager |
| fullgraph | fullgraph | 布尔值 | False | 是否对整个模型进行完整编译,开启后更彻底但可能不稳定 | 是否启用完整图模式 | 追求极致性能可以开启,不稳定就关闭 |
| dynamic | dynamic | 布尔值 | False | 是否支持动态输入尺寸,开启后更灵活但可能变慢 | 是否启用动态模式 | 输入尺寸经常变化就开启 |
3.3 TeaCacheForCogVideoX 节点 - CogVideoX 专用加速节点
这个节点是干嘛的?
这是专门为 CogVideoX 视频生成模型设计的加速节点。CogVideoX 是一个很厉害的视频生成 AI,但运行很慢,这个节点就是专门给它提速的。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| model | model | COGVIDEOMODEL类型 | - | CogVideoX 模型,就像专门的视频制作设备 | CogVideoX模型对象 | 连接CogVideoX模型加载节点 |
| enable_teacache | enable_teacache | 布尔值 | True | 是否开启加速功能的总开关 | 是否启用TeaCache加速 | 想加速就开True,想看原始效果就关False |
| rel_l1_thresh | rel_l1_thresh | 0.0-10.0 | 0.3 | 加速强度控制旋钮,和主节点一样的作用 | 相对L1距离阈值 | 视频质量不好就调小,速度不够就调大 |
4. 使用技巧和建议
4.1 不同模型的最佳设置
根据官方测试,不同模型的最佳参数设置:
图片生成模型:
- FLUX:rel_l1_thresh=0.4,可获得约2倍加速
- HiDream-I1-Full:rel_l1_thresh=0.35,start_percent=0.1,约2倍加速
- HiDream-I1-Dev:rel_l1_thresh=1.0,约2倍加速
- Lumina-Image-2.0:rel_l1_thresh=0.38,start_percent=0.2,约1.7倍加速
视频生成模型:
- HunyuanVideo:rel_l1_thresh=0.15,约1.9倍加速
- LTX-Video:rel_l1_thresh=0.06,约1.7倍加速
- CogVideoX:rel_l1_thresh=0.3,约2倍加速
4.2 显存优化建议
- 显存充足(12GB以上): cache_device 选择 "cuda",速度最快
- 显存紧张(8GB以下): cache_device 选择 "cpu",节省显存但稍慢
- 中等显存(8-12GB): 可以先试 "cuda",不够再换 "cpu"
4.3 连接顺序建议
推荐的节点连接顺序:
- 加载扩散模型 → TeaCache → CompileModel → 采样器
- 或者:加载扩散模型 → 加载LoRA → TeaCache → 采样器
4.4 质量与速度平衡
- 追求质量: rel_l1_thresh 调小(0.1-0.3)
- 追求速度: rel_l1_thresh 调大(0.5-1.0)
- 平衡选择: 使用推荐值,通常是最佳平衡点
5. 常见问题解答
Q1:为什么第一次使用 CompileModel 很慢?
A: 这是正常现象!CompileModel 需要先把模型"翻译"成更高效的代码,这个过程需要时间。就像第一次安装软件需要时间,但安装完后运行就很快了。
Q2:rel_l1_thresh 应该设置多少?
A: 建议从推荐值开始:
- 如果生成的图片/视频质量不满意,就把数值调小
- 如果觉得加速效果不明显,就把数值调大
- 每次调整0.1-0.2,慢慢找到最适合的值
Q3:显存不够用怎么办?
A:
- 把 cache_device 改成 "cpu"
- 降低生成分辨率
- 减少批次大小
- 不使用 CompileModel 节点
Q4:为什么有时候加速效果不明显?
A: 可能的原因:
- rel_l1_thresh 设置太小,缓存很少触发
- 模型类型选择错误
- 显卡性能本身就很强,瓶颈在其他地方
Q5:可以和其他加速插件一起使用吗?
A: 可以!TeaCache 可以和大部分其他插件兼容,但建议:
- 先单独测试 TeaCache 效果
- 再逐个添加其他插件
- 如果出现冲突,优先保留 TeaCache
6. 高级技巧
6.1 批量处理优化
如果你要生成很多张图片:
- 第一张可能会慢一些(建立缓存)
- 后续图片会越来越快
- 相似的提示词会有更好的加速效果
6.2 工作流优化
- 把 TeaCache 放在 LoRA 加载之后
- CompileModel 放在最后(如果使用的话)
- 避免在 TeaCache 后面连接会改变模型的节点
6.3 实验性功能
对于高级用户,可以尝试:
- 调整 start_percent 和 end_percent 来精细控制加速阶段
- 在不同的生成步数下测试最佳参数
- 结合不同的采样器测试效果
7. 总结
ComfyUI-TeaCache 是一个非常实用的加速插件,它通过智能缓存技术大幅提升 AI 生成速度,同时保持良好的画质。对于经常使用 ComfyUI 进行图片或视频生成的用户来说,这个插件绝对是必装的神器!
记住这几个要点:
- 选对模型类型很重要
- rel_l1_thresh 是最关键的参数
- 显存不够就用 CPU 缓存
- 第一次编译会慢,但后续会很快
- 多试试不同参数,找到最适合你的设置
希望这个教程能帮助你更好地使用 TeaCache 插件,享受飞一般的 AI 生成速度!🚀