ComfyUI_TensorRT 插件完全教程
插件简介
插件地址: https://github.com/comfyanonymous/ComfyUI_TensorRT
这个插件是什么呢?简单来说,它就像一个超级加速器,专门为NVIDIA显卡用户打造的AI图像生成加速神器!想象一下,你的AI绘画就像一辆普通汽车,而这个插件就像给你的车装上了火箭发动机,让生成图片的速度飞起来!
主要功能:
- 大幅提升AI图像生成速度(可以快2-5倍)
- 支持多种AI模型:SD1.5、SDXL、SD3、Flux等
- 针对NVIDIA RTX显卡深度优化
- 支持动态和静态两种加速模式
能给我们带来什么效果:
- 生成图片的等待时间大大缩短
- 同样的时间可以生成更多图片
- 显卡性能得到最大化利用
- 特别适合批量生成和商业用途
插件包含节点总数: 3个节点
如何安装
方法一:通过ComfyUI管理器安装(推荐)
- 打开ComfyUI管理器
- 搜索"TensorRT"
- 点击安装
方法二:手动安装
- 进入ComfyUI的custom_nodes文件夹
- 运行命令:
git clone https://github.com/comfyanonymous/ComfyUI_TensorRT.git - 进入插件文件夹,运行:
pip install -r requirements.txt
硬件要求:
- 必须是NVIDIA RTX系列显卡
- SDXL模型建议12GB以上显存
- SVD模型建议16GB以上显存
- Flux模型需要24GB以上显存
节点详细解析
3.1 DYNAMIC_TRT_MODEL_CONVERSION 节点
这个节点是干嘛的?
这个节点就像一个智能工厂,它把普通的AI模型改造成超级跑车版本。它会根据你的显卡特点,为你的模型量身定制一个专属的加速引擎。这个引擎支持多种尺寸,就像一件可以调节大小的衣服,适应不同的图片尺寸需求。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| model | model | MODEL类型 | - | 要加速的AI模型,就像要改装的汽车 | 输入的扩散模型 | 连接CheckpointLoader的MODEL输出 |
| filename_prefix | filename_prefix | 文本 | tensorrt/ComfyUI_DYN | 给加速引擎起个名字,方便以后找到 | 输出文件名前缀 | 改成"我的SDXL加速版"这样好记的名字 |
| batch_size_min | batch_size_min | 1-100 | 1 | 最少能同时处理几张图,就像餐厅最少接几个客人 | 最小批处理大小 | 通常设为1,表示至少处理1张图 |
| batch_size_opt | batch_size_opt | 1-100 | 1 | 最佳同时处理图片数量,效率最高的状态 | 最优批处理大小 | 根据显存大小设置,4GB显存建议1 |
| batch_size_max | batch_size_max | 1-100 | 1 | 最多能同时处理几张图,就像餐厅最多能坐几桌客人 | 最大批处理大小 | 显存够大可以设为2-4 |
| height_min | height_min | 256-4096 | 512 | 图片最小高度,就像相框的最小尺寸 | 最小图像高度像素 | 设为你可能用到的最小高度 |
| height_opt | height_opt | 256-4096 | 512 | 最佳图片高度,这个尺寸速度最快 | 最优图像高度像素 | 设为你最常用的高度,如512或1024 |
| height_max | height_max | 256-4096 | 512 | 图片最大高度,就像相框的最大尺寸 | 最大图像高度像素 | 设为你可能用到的最大高度 |
| width_min | width_min | 256-4096 | 512 | 图片最小宽度 | 最小图像宽度像素 | 设为你可能用到的最小宽度 |
| width_opt | width_opt | 256-4096 | 512 | 最佳图片宽度,这个尺寸速度最快 | 最优图像宽度像素 | 设为你最常用的宽度,如512或1024 |
| width_max | width_max | 256-4096 | 512 | 图片最大宽度 | 最大图像宽度像素 | 设为你可能用到的最大宽度 |
| context_min | context_min | 1-128 | 1 | 最少文字描述长度,就像最短的菜单描述 | 最小上下文长度 | 通常设为1 |
| context_opt | context_opt | 1-128 | 1 | 最佳文字描述长度 | 最优上下文长度 | 根据你的提示词习惯设置 |
| context_max | context_max | 1-128 | 1 | 最多文字描述长度,就像最详细的菜单描述 | 最大上下文长度 | 如果你喜欢写长提示词可以设大一些 |
| num_video_frames | num_video_frames | 0-1000 | 14 | 视频帧数,只有做视频时才用到 | 视频帧数量 | 做图片时保持默认14即可 |
3.2 STATIC_TRT_MODEL_CONVERSION 节点
这个节点是干嘛的?
这个节点就像一个专业定制师,它为你的AI模型制作一套完全贴身的西装。与动态版本不同,这个版本只支持一个固定尺寸,但就像量身定制的西装一样,在这个尺寸下性能最佳,而且占用的衣柜空间(显存)更少。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| model | model | MODEL类型 | - | 要加速的AI模型 | 输入的扩散模型 | 连接CheckpointLoader的MODEL输出 |
| filename_prefix | filename_prefix | 文本 | tensorrt/ComfyUI_STAT | 给静态加速引擎起个名字 | 输出文件名前缀 | 改成"我的512x512专用版"这样的名字 |
| batch_size_opt | batch_size_opt | 1-100 | 1 | 固定的同时处理图片数量 | 批处理大小 | 根据显存设置,通常为1 |
| height_opt | height_opt | 256-4096 | 512 | 固定的图片高度 | 图像高度像素 | 设为你最常用的高度 |
| width_opt | width_opt | 256-4096 | 512 | 固定的图片宽度 | 图像宽度像素 | 设为你最常用的宽度 |
| context_opt | context_opt | 1-128 | 1 | 固定的文字描述长度 | 上下文长度 | 根据你的提示词习惯设置 |
| num_video_frames | num_video_frames | 0-1000 | 14 | 视频帧数 | 视频帧数量 | 做图片时保持默认即可 |
3.3 TensorRTLoader 节点
这个节点是干嘛的?
这个节点就像一个智能车库管理员,它负责找到并启动你之前制作好的加速引擎。当你想要使用加速版的AI模型时,就通过这个节点来调用,它会自动识别引擎类型并正确加载。
参数详解:
| 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|---|---|---|---|---|---|
| unet_name | unet_name | 文件选择 | 根据需求选择 | 选择要使用的加速引擎文件 | 选择TensorRT引擎文件 | 从下拉菜单选择之前制作的.engine文件 |
| model_type | model_type | 下拉选择 | 根据模型选择 | 告诉系统这是什么类型的AI模型 | 指定模型架构类型 | SD1.5选sd1.x,SDXL选sdxl_base |
model_type选项说明:
- sdxl_base: SDXL基础模型,最常用的高质量模型
- sdxl_refiner: SDXL精炼模型,用于提升细节
- sd1.x: Stable Diffusion 1.5系列模型
- sd2.x-768v: Stable Diffusion 2.x系列模型
- svd: Stable Video Diffusion视频生成模型
- sd3: Stable Diffusion 3.0最新模型
- auraflow: AuraFlow模型
- flux_dev: Flux开发版模型
- flux_schnell: Flux快速版模型
使用技巧和建议
4.1 选择动态还是静态引擎?
动态引擎适合:
- 经常改变图片尺寸的用户
- 需要灵活性的创作者
- 不确定固定尺寸的新手
静态引擎适合:
- 总是用固定尺寸的用户(如512x512)
- 显存较小的用户
- 追求极致性能的用户
4.2 参数设置建议
显存4-6GB用户:
- batch_size都设为1
- 尺寸不要超过512x512
- 优先使用静态引擎
显存8-12GB用户:
- 可以尝试batch_size设为2
- 支持512x512到1024x1024
- 动态引擎是好选择
显存16GB+用户:
- batch_size可以设为4或更高
- 支持更大尺寸
- 可以同时制作多个引擎
4.3 制作引擎的时间预估
- SD1.5模型: 3-5分钟
- SDXL模型: 5-10分钟
- SVD模型: 10-25分钟
- SVD-XT模型: 可能需要1小时
4.4 文件命名规则理解
动态引擎文件名示例:
ComfyUI_DYN_dyn-b-1-1-1-h-512-1024-512-w-512-1024-512.engine
- dyn = 动态引擎
- b-1-1-1 = 批次大小(最小-最大-最优)
- h-512-1024-512 = 高度(最小-最大-最优)
- w-512-1024-512 = 宽度(最小-最大-最优)
静态引擎文件名示例:
ComfyUI_STAT_stat-b-1-h-512-w-512.engine
- stat = 静态引擎
- b-1 = 批次大小1
- h-512 = 高度512
- w-512 = 宽度512
常见问题解答
5.1 为什么我的显卡不支持?
- 这个插件只支持NVIDIA RTX系列显卡
- GTX系列和其他品牌显卡无法使用
- 需要支持CUDA的显卡
5.2 制作引擎时出现内存不足怎么办?
- 降低max参数设置
- 减少batch_size
- 关闭其他占用显存的程序
- 考虑使用静态引擎
5.3 引擎制作完成后在哪里找?
- 引擎文件保存在ComfyUI/output/tensorrt/文件夹
- 需要刷新浏览器(F5)才能在TensorRTLoader中看到
- 文件扩展名是.engine
5.4 可以和ControlNet、LoRA一起使用吗?
- 目前还不支持ControlNet和LoRA
- 这是已知限制,未来版本会支持
- 如需使用这些功能,请用原版模型
5.5 引擎制作失败怎么办?
- 检查显存是否足够
- 确认模型文件完整
- 尝试降低参数设置
- 查看控制台错误信息
5.6 不同模型需要分别制作引擎吗?
- 是的,每个不同的模型都需要单独制作引擎
- 不同尺寸设置也需要分别制作
- 建议为常用模型和尺寸制作专用引擎
高级使用技巧
6.1 批量制作引擎
- 可以为不同尺寸制作多个静态引擎
- 常用尺寸:512x512、768x768、1024x1024
- 根据用途制作专门的引擎
6.2 性能优化建议
- 使用最优尺寸时性能最佳
- 避免频繁切换不同尺寸
- 定期清理不用的引擎文件
6.3 工作流整合
- 可以制作专门的TensorRT工作流模板
- 为不同用途准备不同的引擎
- 建议备份重要的引擎文件
总结
ComfyUI_TensorRT插件是NVIDIA RTX显卡用户的必备加速神器,包含3个核心节点,能够显著提升AI图像生成速度。通过合理配置参数和选择合适的引擎类型,你可以获得2-5倍的性能提升。
所有节点都已完整分析完毕!这个插件特别适合:
- 专业内容创作者
- 需要批量生成图片的用户
- 追求极致性能的AI艺术家
- 拥有NVIDIA RTX显卡的所有用户
记住,第一次制作引擎需要一些时间,但一旦制作完成,你就能享受飞一般的生成速度!