ComfyUI 魔法书 Logo
🏠 首页
👥 加群
😎 大帅比
❤️‍🔥 Monster 社区
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 😎 大帅比 ❤️‍🔥 Monster 社区
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. ComfyUI-TeaCache插件使用教程 手把手教你高效操作

ComfyUI-TeaCache插件使用教程 手把手教你高效操作

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-06-28
  • 96 次阅读
编程界的小学生
编程界的小学生

ComfyUI-TeaCache 插件保姆级教程

1. 插件简介

插件地址: https://github.com/welltop-cn/ComfyUI-TeaCache

ComfyUI-TeaCache 是一个超级厉害的加速插件!它就像给你的 AI 图片和视频生成装了一个"智能缓存器"。

这个插件能干啥?

  • 让你的图片生成速度提升 1.5 到 3 倍!就像原来需要 10 分钟的工作,现在只要 3-5 分钟
  • 支持超多热门模型:FLUX、HunyuanVideo、LTX-Video、CogVideoX、Wan2.1 等等
  • 画质损失很小,肉眼几乎看不出区别
  • 使用超简单,只需要连接一个节点就搞定

工作原理(大白话版):
想象你在画画,每次画新的一笔之前,你都要重新调色、重新构思。TeaCache 就像一个聪明的助手,它会记住你之前的调色和构思,当发现新的一笔和之前很相似时,就直接用之前的结果,这样就大大节省了时间。

2. 如何安装

方法一:通过 ComfyUI-Manager 安装(推荐)

  1. 打开 ComfyUI
  2. 点击右下角的 "Manager" 按钮
  3. 在搜索框里输入 "TeaCache"
  4. 找到 "ComfyUI-TeaCache" 点击安装
  5. 重启 ComfyUI

方法二:手动安装

  1. 找到你的 ComfyUI 文件夹,进入 custom_nodes 目录
  2. 在这里打开命令行(终端)
  3. 输入命令:git clone https://github.com/welltop-cn/ComfyUI-TeaCache.git
  4. 进入插件文件夹:cd ComfyUI-TeaCache
  5. 安装依赖:pip install -r requirements.txt
  6. 重启 ComfyUI

3. 节点详细解析

当前插件包含节点总数:3 个
本次输出节点数:3 个
剩余未输出节点数:0 个

3.1 TeaCache 节点 - 主要加速节点

这个节点是干嘛的?
这是插件的核心节点,就像给你的 AI 模型装了一个"记忆芯片"。它会智能地判断什么时候可以重复使用之前的计算结果,从而大幅提升生成速度。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
modelmodelMODEL类型-这是你要加速的 AI 模型,就像要改装的汽车输入的扩散模型对象连接"加载扩散模型"节点的输出
model_typemodel_type下拉选择flux告诉插件你用的是哪种 AI 模型,就像告诉修车师傅你的车是什么牌子支持的模型类型标识符FLUX选flux,视频模型选对应类型
rel_l1_threshrel_l1_thresh0.0-10.00.4控制加速强度的旋钮,数值越小加速越猛但可能影响质量相对L1距离阈值,控制缓存触发条件画质不满意就调小,速度不够就调大
start_percentstart_percent0.0-1.00.0从生成过程的百分之几开始使用加速,就像汽车从几档开始用涡轮增压开始应用TeaCache的步数百分比一般保持0,特殊情况可以调到0.1
end_percentend_percent0.0-1.01.0到生成过程的百分之几停止使用加速停止应用TeaCache的步数百分比一般保持1.0,除非有特殊需求
cache_devicecache_devicecuda/cpucuda缓存数据存放的地方,cuda是显卡内存(快但占显存),cpu是内存(慢但不占显存)缓存设备选择显存够用选cuda,显存紧张选cpu

3.2 CompileModel 节点 - 模型编译优化节点

这个节点是干嘛的?
这个节点就像给你的 AI 模型做了一次"深度优化",把模型的运行代码重新编译成更高效的版本。第一次使用会比较慢(编译需要时间),但之后每次运行都会超级快。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
modelmodelMODEL类型-要优化的 AI 模型,就像要升级的软件输入的扩散模型对象连接TeaCache节点或模型加载节点
modemode下拉选择default编译优化的强度等级,就像游戏的画质设置torch.compile的模式选择一般用default,追求极致速度用max-autotune
backendbackend下拉选择inductor编译器的类型,就像选择不同的翻译软件编译后端选择一般用inductor,有问题可以试试eager
fullgraphfullgraph布尔值False是否对整个模型进行完整编译,开启后更彻底但可能不稳定是否启用完整图模式追求极致性能可以开启,不稳定就关闭
dynamicdynamic布尔值False是否支持动态输入尺寸,开启后更灵活但可能变慢是否启用动态模式输入尺寸经常变化就开启

3.3 TeaCacheForCogVideoX 节点 - CogVideoX 专用加速节点

这个节点是干嘛的?
这是专门为 CogVideoX 视频生成模型设计的加速节点。CogVideoX 是一个很厉害的视频生成 AI,但运行很慢,这个节点就是专门给它提速的。

参数详解:

参数名 (UI显示)参数名 (代码里)参数值建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
modelmodelCOGVIDEOMODEL类型-CogVideoX 模型,就像专门的视频制作设备CogVideoX模型对象连接CogVideoX模型加载节点
enable_teacacheenable_teacache布尔值True是否开启加速功能的总开关是否启用TeaCache加速想加速就开True,想看原始效果就关False
rel_l1_threshrel_l1_thresh0.0-10.00.3加速强度控制旋钮,和主节点一样的作用相对L1距离阈值视频质量不好就调小,速度不够就调大

4. 使用技巧和建议

4.1 不同模型的最佳设置

根据官方测试,不同模型的最佳参数设置:

图片生成模型:

  • FLUX:rel_l1_thresh=0.4,可获得约2倍加速
  • HiDream-I1-Full:rel_l1_thresh=0.35,start_percent=0.1,约2倍加速
  • HiDream-I1-Dev:rel_l1_thresh=1.0,约2倍加速
  • Lumina-Image-2.0:rel_l1_thresh=0.38,start_percent=0.2,约1.7倍加速

视频生成模型:

  • HunyuanVideo:rel_l1_thresh=0.15,约1.9倍加速
  • LTX-Video:rel_l1_thresh=0.06,约1.7倍加速
  • CogVideoX:rel_l1_thresh=0.3,约2倍加速

4.2 显存优化建议

  • 显存充足(12GB以上): cache_device 选择 "cuda",速度最快
  • 显存紧张(8GB以下): cache_device 选择 "cpu",节省显存但稍慢
  • 中等显存(8-12GB): 可以先试 "cuda",不够再换 "cpu"

4.3 连接顺序建议

推荐的节点连接顺序:

  1. 加载扩散模型 → TeaCache → CompileModel → 采样器
  2. 或者:加载扩散模型 → 加载LoRA → TeaCache → 采样器

4.4 质量与速度平衡

  • 追求质量: rel_l1_thresh 调小(0.1-0.3)
  • 追求速度: rel_l1_thresh 调大(0.5-1.0)
  • 平衡选择: 使用推荐值,通常是最佳平衡点

5. 常见问题解答

Q1:为什么第一次使用 CompileModel 很慢?

A: 这是正常现象!CompileModel 需要先把模型"翻译"成更高效的代码,这个过程需要时间。就像第一次安装软件需要时间,但安装完后运行就很快了。

Q2:rel_l1_thresh 应该设置多少?

A: 建议从推荐值开始:

  • 如果生成的图片/视频质量不满意,就把数值调小
  • 如果觉得加速效果不明显,就把数值调大
  • 每次调整0.1-0.2,慢慢找到最适合的值

Q3:显存不够用怎么办?

A:

  1. 把 cache_device 改成 "cpu"
  2. 降低生成分辨率
  3. 减少批次大小
  4. 不使用 CompileModel 节点

Q4:为什么有时候加速效果不明显?

A: 可能的原因:

  • rel_l1_thresh 设置太小,缓存很少触发
  • 模型类型选择错误
  • 显卡性能本身就很强,瓶颈在其他地方

Q5:可以和其他加速插件一起使用吗?

A: 可以!TeaCache 可以和大部分其他插件兼容,但建议:

  • 先单独测试 TeaCache 效果
  • 再逐个添加其他插件
  • 如果出现冲突,优先保留 TeaCache

6. 高级技巧

6.1 批量处理优化

如果你要生成很多张图片:

  1. 第一张可能会慢一些(建立缓存)
  2. 后续图片会越来越快
  3. 相似的提示词会有更好的加速效果

6.2 工作流优化

  • 把 TeaCache 放在 LoRA 加载之后
  • CompileModel 放在最后(如果使用的话)
  • 避免在 TeaCache 后面连接会改变模型的节点

6.3 实验性功能

对于高级用户,可以尝试:

  • 调整 start_percent 和 end_percent 来精细控制加速阶段
  • 在不同的生成步数下测试最佳参数
  • 结合不同的采样器测试效果

7. 总结

ComfyUI-TeaCache 是一个非常实用的加速插件,它通过智能缓存技术大幅提升 AI 生成速度,同时保持良好的画质。对于经常使用 ComfyUI 进行图片或视频生成的用户来说,这个插件绝对是必装的神器!

记住这几个要点:

  1. 选对模型类型很重要
  2. rel_l1_thresh 是最关键的参数
  3. 显存不够就用 CPU 缓存
  4. 第一次编译会慢,但后续会很快
  5. 多试试不同参数,找到最适合你的设置

希望这个教程能帮助你更好地使用 TeaCache 插件,享受飞一般的 AI 生成速度!🚀

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号