【版权严正声明】
本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。
未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。
任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。
侵权必究,切勿以身试法!
1. 插件简介
插件地址: https://github.com/kijai/ComfyUI-HunyuanVideoWrapper
这个插件是腾讯混元视频模型(HunyuanVideo)在ComfyUI中的包装器,让你可以在ComfyUI里生成高质量的AI视频。就像给你的ComfyUI装了一个专业的视频制作工具,可以:
文字生成视频(T2V):输入文字描述,直接生成视频
图片生成视频(I2V):从一张图片开始,生成动态视频
视频转视频(V2V):修改现有视频的风格或内容
图片提示视频(IP2V):用图片作为提示词来生成视频
支持LoRA微调:可以加载各种风格的LoRA模型
内存优化:多种省显存的方法,让低配置电脑也能跑
简单说,这就是一个让你在ComfyUI里制作AI视频的超级工具箱!
2. 如何安装
方法一:ComfyUI Manager安装(推荐)
打开ComfyUI Manager
搜索"HunyuanVideoWrapper"
点击安装即可
方法二:手动安装
进入ComfyUI的custom_nodes文件夹
运行命令:git clone https://github.com/kijai/ComfyUI-HunyuanVideoWrapper.git
重启ComfyUI
3. 节点详细解析
插件总节点数:37个 本次解析:37个(全部)
3.1 HyVideoModelLoader 节点 - 模型加载器
这个节点就像一个"模型管家",负责把混元视频模型加载到内存里,让其他节点可以使用。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | 文件列表 | 根据需要选择 | 选择要加载的视频模型文件,就像选择不同的画笔 | 从diffusion_models文件夹中选择模型文件 | 选择hunyuan_video_720_bf16.safetensors |
base_precision | base_precision | fp32/bf16 | bf16 | 模型运行的精度,就像画画时选择粗笔还是细笔 | 模型权重的数据类型,影响质量和速度 | bf16平衡质量和速度,fp32质量更好但更慢 |
quantization | quantization | disabled/fp8_e4m3fn等 | disabled | 模型压缩方式,就像把大文件压缩成小文件 | 量化方法,可以减少显存使用 | fp8_e4m3fn可以节省显存但可能影响质量 |
load_device | load_device | main_device/offload_device | main_device | 模型加载到哪个设备,就像选择把工具放在桌上还是抽屉里 | 选择模型加载的设备位置 | main_device加载到GPU,offload_device加载到CPU |
attention_mode | attention_mode | sdpa/flash_attn等 | flash_attn | 注意力计算方式,就像大脑思考问题的方法 | 注意力机制的实现方式 | flash_attn速度更快,sageattn内存效率更高 |
compile_args | compile_args | COMPILEARGS | 可选 | 编译优化参数,就像给引擎调校提升性能 | torch.compile优化参数 | 连接HyVideoTorchCompileSettings节点 |
block_swap_args | block_swap_args | BLOCKSWAPARGS | 可选 | 内存交换设置,就像电脑虚拟内存 | 块交换参数,用于减少显存使用 | 连接HyVideoBlockSwap节点 |
lora | lora | HYVIDLORA | 可选 | LoRA模型,就像给画笔换不同的笔头 | 低秩适应模型,用于风格调整 | 连接HyVideoLoraSelect节点 |
auto_cpu_offload | auto_cpu_offload | True/False | False | 自动内存卸载,就像自动整理桌面 | 自动将不用的部分移到CPU | 开启可节省显存但可能变慢 |
upcast_rope | upcast_rope | True/False | True | 位置编码精度提升,就像给地图加更精确的坐标 | RoPE位置编码是否使用fp32精度 | True提高精度,False节省内存 |
3.2 HyVideoVAELoader 节点 - VAE加载器
这个节点负责加载VAE模型,VAE就像一个"翻译官",把图片和潜在空间互相转换。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model_name | model_name | 文件列表 | 根据模型选择 | 选择VAE模型文件,就像选择翻译官 | 从vae文件夹中选择VAE模型 | 选择hunyuan_video_vae_bf16.safetensors |
precision | precision | fp16/fp32/bf16 | bf16 | VAE运行精度,就像翻译的精确程度 | VAE模型的数据类型 | bf16平衡质量和速度 |
compile_args | compile_args | COMPILEARGS | 可选 | 编译优化参数,提升VAE性能 | torch.compile优化设置 | 连接编译设置节点可提升速度 |
3.3 DownloadAndLoadHyVideoTextEncoder 节点 - 文本编码器加载器
这个节点负责加载文本编码器,就像一个"文字理解专家",把你输入的文字转换成AI能理解的格式。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
llm_model | llm_model | 模型选项 | Kijai/llava-llama-3-8b-text-encoder-tokenizer | 选择大语言模型,就像选择不同的文字专家 | LLM文本编码器模型 | 第一个选项是纯文本,第二个支持图片 |
clip_model | clip_model | disabled/openai选项 | disabled | CLIP模型选择,就像额外的文字助手 | CLIP文本编码器 | disabled时只用LLM,否则两个一起用 |
precision | precision | fp16/fp32/bf16 | bf16 | 文本编码器精度,影响理解准确度 | 文本编码器数据类型 | bf16是最佳平衡选择 |
apply_final_norm | apply_final_norm | True/False | False | 是否应用最终标准化,就像给文字做最后检查 | 是否在最后应用层标准化 | 通常保持False |
hidden_state_skip_layer | hidden_state_skip_layer | 数字 | 2 | 跳过的隐藏层数,就像跳过一些思考步骤 | 从倒数第几层提取特征 | 2是默认值,通常不需要改 |
quantization | quantization | disabled/bnb_nf4/fp8 | disabled | 量化方式,压缩模型节省内存 | 文本编码器量化方法 | bnb_nf4可以大幅节省显存 |
load_device | load_device | main_device/offload_device | offload_device | 加载设备选择,决定放在GPU还是CPU | 文本编码器加载位置 | offload_device节省显存 |
3.4 HyVideoTextEncode 节点 - 文本编码器
这个节点把你写的提示词转换成AI能理解的"密码",就像把中文翻译成AI的语言。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
text_encoders | text_encoders | HYVIDTEXTENCODER | 必需 | 文本编码器输入,就像连接翻译官 | 文本编码器模型连接 | 连接DownloadAndLoadHyVideoTextEncoder |
prompt | prompt | 文本 | 空字符串 | 你想生成视频的描述,就像给AI下指令 | 正向提示词 | "一只可爱的小猫在花园里玩耍" |
force_offload | force_offload | True/False | True | 强制卸载,就像用完工具就收起来 | 编码完成后是否卸载模型 | True节省显存 |
prompt_template | prompt_template | video/image/custom等 | video | 提示词模板,就像不同的说话方式 | 提示词格式模板 | video用于视频生成,image用于图片 |
custom_prompt_template | custom_prompt_template | PROMPT_TEMPLATE | 可选 | 自定义模板,就像自己设计说话方式 | 自定义提示词模板 | 连接HyVideoCustomPromptTemplate |
clip_l | clip_l | CLIP | 可选 | CLIP模型输入,额外的文字理解助手 | CLIP文本编码器 | 可以用ComfyUI原生CLIP |
hyvid_cfg | hyvid_cfg | HYVID_CFG | 可选 | CFG设置,控制生成质量 | 分类器自由引导参数 | 连接HyVideoCFG节点 |
model_to_offload | model_to_offload | HYVIDEOMODEL | 可选 | 要卸载的模型,节省内存 | 编码时临时卸载的模型 | 连接主模型可节省显存 |
3.5 HyVideoSampler 节点 - 采样器(核心生成节点)
这是整个插件的"心脏",负责实际生成视频。就像一个视频制作工厂,把所有材料组装成最终的视频。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | HYVIDEOMODEL | 必需 | 视频生成模型,就像视频制作机器 | 混元视频模型 | 连接HyVideoModelLoader |
hyvid_embeds | hyvid_embeds | HYVIDEMBEDS | 必需 | 文本编码结果,就像制作指令书 | 编码后的提示词 | 连接HyVideoTextEncode |
width | width | 数字 | 512 | 视频宽度,就像画布的宽 | 生成视频的像素宽度 | 512、720、1024等,16的倍数 |
height | height | 数字 | 512 | 视频高度,就像画布的高 | 生成视频的像素高度 | 512、720、1024等,16的倍数 |
num_frames | num_frames | 数字 | 49 | 视频帧数,就像动画的张数 | 生成视频的总帧数 | 49帧约2秒,必须是4n+1格式 |
steps | steps | 数字 | 30 | 生成步数,就像画画的细致程度 | 去噪步数 | 30步平衡质量和速度 |
embedded_guidance_scale | embedded_guidance_scale | 小数 | 6.0 | 内嵌引导强度,控制遵循提示词的程度 | 嵌入式引导缩放 | 6.0是默认值,越高越严格遵循 |
flow_shift | flow_shift | 小数 | 9.0 | 流匹配偏移,影响生成质量 | 流匹配调度器参数 | 9.0是推荐值 |
seed | seed | 整数 | 0 | 随机种子,就像抽奖的号码 | 随机数种子 | 相同种子产生相同结果 |
force_offload | force_offload | True/False | True | 强制卸载,节省内存 | 生成完成后卸载模型 | True节省显存 |
3.6 HyVideoDecode 节点 - 视频解码器
这个节点把AI生成的"密码"(潜在空间)转换回我们能看的视频,就像把暗号翻译成图像。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
vae | vae | VAE | 必需 | VAE模型,就像解码器 | 变分自编码器 | 连接HyVideoVAELoader |
samples | samples | LATENT | 必需 | 潜在空间数据,就像待解码的密文 | 采样器输出的潜在表示 | 连接HyVideoSampler的输出 |
enable_vae_tiling | enable_vae_tiling | True/False | True | 启用分块解码,就像分段翻译长文章 | VAE分块处理,减少显存使用 | True大幅节省显存但可能有接缝 |
temporal_tiling_sample_size | temporal_tiling_sample_size | 数字 | 64 | 时间分块大小,就像每次处理几帧 | 时间维度分块大小 | 64是默认值,更小节省显存 |
spatial_tile_sample_min_size | spatial_tile_sample_min_size | 数字 | 256 | 空间分块最小尺寸,控制画面分割 | 空间维度最小分块尺寸 | 256平衡质量和显存 |
auto_tile_size | auto_tile_size | True/False | True | 自动分块大小,让系统自己决定 | 自动设置分块参数 | True使用默认优化设置 |
skip_latents | skip_latents | 数字 | 0 | 跳过开头帧数,解决闪烁问题 | 跳过前N个潜在帧 | 如果开头闪烁可以设为1-2 |
balance_brightness | balance_brightness | True/False | False | 平衡亮度,让视频亮度更均匀 | 自动调整帧间亮度差异 | True可以减少亮度跳跃 |
3.7 HyVideoEncode 节点 - 视频编码器
这个节点把图片或视频转换成AI能处理的"密码"格式,就像把照片扫描成数字信号。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
vae | vae | VAE | 必需 | VAE模型,就像编码器 | 变分自编码器 | 连接HyVideoVAELoader |
image | image | IMAGE | 必需 | 输入图片,要编码的原始图像 | 输入图像数据 | 连接LoadImage或其他图像节点 |
enable_vae_tiling | enable_vae_tiling | True/False | True | 启用分块编码,节省内存 | VAE分块处理 | True节省显存 |
temporal_tiling_sample_size | temporal_tiling_sample_size | 数字 | 64 | 时间分块大小 | 时间维度分块尺寸 | 64是标准值 |
spatial_tile_sample_min_size | spatial_tile_sample_min_size | 数字 | 256 | 空间分块最小尺寸 | 空间维度分块参数 | 256平衡性能 |
auto_tile_size | auto_tile_size | True/False | True | 自动分块大小设置 | 自动优化分块参数 | True使用推荐设置 |
noise_aug_strength | noise_aug_strength | 小数 | 0.0 | 噪声增强强度,增加随机性 | 噪声增强参数 | 0.02-0.05可增加动态效果 |
latent_strength | latent_strength | 小数 | 1.0 | 潜在强度倍数,调整编码强度 | 潜在表示缩放因子 | 0.8-1.2调整编码强度 |
latent_dist | latent_dist | sample/mode | sample | 潜在分布采样方式 | VAE潜在分布采样模式 | sample有随机性,mode更确定 |
3.8 HyVideoCFG 节点 - CFG设置
这个节点控制AI生成时对提示词的"听话程度",就像调节AI的服从度。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
negative_prompt | negative_prompt | 文本 | 默认负面词 | 不想要的内容,就像告诉AI别画什么 | 负向提示词 | "低质量,模糊,变形" |
cfg | cfg | 小数 | 2.0 | CFG强度,控制遵循提示词的程度 | 分类器自由引导强度 | 1.0-3.0,越高越严格遵循 |
start_percent | start_percent | 小数 | 0.0 | CFG开始百分比,什么时候开始生效 | CFG应用的起始步数百分比 | 0.0从头开始 |
end_percent | end_percent | 小数 | 1.0 | CFG结束百分比,什么时候停止 | CFG应用的结束步数百分比 | 1.0到最后 |
batched_cfg | batched_cfg | True/False | False | 批量CFG,同时计算正负提示 | 批量处理CFG计算 | True更快但占用更多显存 |
use_cfg_zero_star | use_cfg_zero_star | True/False | False | 使用CFG零星技术,优化方法 | CFG零星优化技术 | True可能提升质量 |
3.9 HyVideoBlockSwap 节点 - 内存交换设置
这个节点设置内存交换策略,就像管理电脑的虚拟内存,让低显存电脑也能跑大模型。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
double_blocks_to_swap | double_blocks_to_swap | 数字 | 20 | 双重块交换数量,控制交换多少层 | 双重注意力块交换数量 | 20全部交换,0不交换 |
single_blocks_to_swap | single_blocks_to_swap | 数字 | 0 | 单一块交换数量 | 单一注意力块交换数量 | 0-40,越多越省显存但越慢 |
offload_txt_in | offload_txt_in | True/False | False | 卸载文本输入层,额外节省显存 | 文本输入层是否卸载 | True进一步节省显存 |
offload_img_in | offload_img_in | True/False | False | 卸载图像输入层 | 图像输入层是否卸载 | True节省更多显存 |
3.10 HyVideoLoraSelect 节点 - LoRA选择器
这个节点用来加载LoRA模型,就像给AI换上不同的"滤镜"或"风格包"。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
lora | lora | 文件列表 | 根据需要选择 | 选择LoRA文件,就像选择风格滤镜 | LoRA模型文件选择 | 选择anime_style.safetensors |
strength | strength | 小数 | 1.0 | LoRA强度,控制风格影响程度 | LoRA应用强度 | 0.5-1.5,越高风格越明显 |
prev_lora | prev_lora | HYVIDLORA | 可选 | 前一个LoRA,用于叠加多个LoRA | 链式LoRA连接 | 连接另一个LoRA节点 |
blocks | blocks | SELECTEDBLOCKS | 可选 | 选择应用的模型块 | 指定LoRA应用的模型层 | 连接HyVideoLoraBlockEdit |
3.11 HyVideoLoraBlockEdit 节点 - LoRA块编辑器
这个节点让你精确控制LoRA应用到模型的哪些部分,就像选择给哪些零件上色。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
double_blocks.0-19 | double_blocks.0等 | True/False | True | 双重块0-19的开关,控制每一层 | 双重注意力块的启用状态 | True启用该层的LoRA |
single_blocks.0-39 | single_blocks.0等 | True/False | True | 单一块0-39的开关 | 单一注意力块的启用状态 | 可以只对某些层应用LoRA |
3.12 HyVideoSTG 节点 - 时空引导
这个节点提供时空引导功能,就像给视频生成加上"导航系统",让动作更连贯。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
stg_mode | stg_mode | STG-A/STG-R | STG-A | STG模式选择,不同的引导方式 | 时空引导模式 | STG-A需要sdpa注意力模式 |
stg_block_idx | stg_block_idx | 数字 | 0 | STG应用的块索引 | 应用STG的模型块位置 | 0-39,-1表示所有块 |
stg_scale | stg_scale | 小数 | 1.0 | STG缩放强度,控制引导程度 | STG引导强度 | 建议≤2.0,过高可能出问题 |
stg_start_percent | stg_start_percent | 小数 | 0.0 | STG开始百分比 | STG应用的起始步数百分比 | 0.0从开始应用 |
stg_end_percent | stg_end_percent | 小数 | 1.0 | STG结束百分比 | STG应用的结束步数百分比 | 1.0应用到最后 |
3.13 HyVideoEnhanceAVideo 节点 - 视频增强
这个节点使用Enhance-A-Video技术提升视频质量,就像给视频加了"美颜滤镜"。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
weight | weight | 小数 | 2.0 | 增强权重,控制增强程度 | Enhance-A-Video的权重参数 | 1.0-3.0,越高增强越明显 |
single_blocks | single_blocks | True/False | True | 对单一块启用增强 | 单一注意力块是否应用增强 | True启用增强效果 |
double_blocks | double_blocks | True/False | True | 对双重块启用增强 | 双重注意力块是否应用增强 | True启用增强效果 |
start_percent | start_percent | 小数 | 0.0 | 增强开始百分比 | 增强应用的起始步数百分比 | 0.0从开始增强 |
end_percent | end_percent | 小数 | 1.0 | 增强结束百分比 | 增强应用的结束步数百分比 | 1.0增强到最后 |
3.14 HyVideoTeaCache 节点 - 茶缓存加速
这个节点使用TeaCache技术加速推理,就像给AI装了"涡轮增压器"。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
rel_l1_thresh | rel_l1_thresh | 小数 | 0.15 | 相对L1阈值,控制缓存激进程度 | TeaCache的L1距离阈值 | 越高越激进,越快但可能有瑕疵 |
cache_device | cache_device | main_device/offload_device | offload_device | 缓存设备选择 | 缓存数据存储设备 | offload_device节省主设备内存 |
start_step | start_step | 数字 | 0 | 开始步数,从第几步开始缓存 | TeaCache开始应用的步数 | 0从头开始 |
end_step | end_step | 数字 | -1 | 结束步数,-1表示到最后 | TeaCache结束应用的步数 | -1表示应用到最后一步 |
3.15 HyVideoTorchCompileSettings 节点 - 编译优化设置
这个节点配置PyTorch编译优化,就像给引擎调校提升性能。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
backend | backend | inductor/cudagraphs | inductor | 编译后端选择,不同的优化引擎 | torch.compile后端 | inductor通用性好 |
fullgraph | fullgraph | True/False | False | 全图模式,是否编译整个计算图 | 完整图编译模式 | True可能更快但兼容性差 |
mode | mode | default/max-autotune等 | default | 编译模式,不同的优化策略 | 编译优化模式 | max-autotune最激进优化 |
dynamic | dynamic | True/False | False | 动态模式,支持动态形状 | 动态形状支持 | True支持变化的输入尺寸 |
dynamo_cache_size_limit | dynamo_cache_size_limit | 数字 | 64 | 动态缓存大小限制 | Dynamo缓存限制 | 64是默认值 |
compile_single_blocks | compile_single_blocks | True/False | True | 编译单一块 | 是否编译单一注意力块 | True编译以提升速度 |
compile_double_blocks | compile_double_blocks | True/False | True | 编译双重块 | 是否编译双重注意力块 | True编译以提升速度 |
compile_txt_in | compile_txt_in | True/False | False | 编译文本输入层 | 是否编译文本输入层 | 通常False避免问题 |
compile_vector_in | compile_vector_in | True/False | False | 编译向量输入层 | 是否编译向量输入层 | 通常False避免问题 |
compile_final_layer | compile_final_layer | True/False | False | 编译最终层 | 是否编译最终输出层 | 通常False避免问题 |
3.16 HyVideoContextOptions 节点 - 上下文选项
这个节点设置长视频生成的上下文窗口,就像把长电影分段拍摄再拼接。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
context_schedule | context_schedule | uniform_standard等 | uniform_standard | 上下文调度方式,分段策略 | 上下文窗口调度算法 | uniform_standard均匀分布 |
context_frames | context_frames | 数字 | 65 | 上下文帧数,每段处理多少帧 | 上下文窗口大小(像素帧) | 65帧是推荐值 |
context_stride | context_stride | 数字 | 4 | 上下文步长,段与段之间的间隔 | 上下文窗口步长(像素帧) | 4是标准步长 |
context_overlap | context_overlap | 数字 | 4 | 上下文重叠,段与段的重叠部分 | 上下文窗口重叠(像素帧) | 4帧重叠保证连贯性 |
freenoise | freenoise | True/False | True | 自由噪声,是否打乱噪声 | 噪声随机化 | True增加随机性 |
3.17 HyVideoTextImageEncode 节点 - 文本图像编码器(IP2V)
这个节点支持图像提示视频生成,就像给AI看图说话然后生成视频。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
text_encoders | text_encoders | HYVIDTEXTENCODER | 必需 | 文本编码器,支持视觉的编码器 | 支持视觉的文本编码器 | 需要使用VLM模型 |
prompt | prompt | 文本 | 空字符串 | 提示词,可以包含<image>标签 | 包含图像引用的提示词 | "这个<image>中的人在跳舞" |
image_token_selection_expr | image_token_selection_expr | 文本 | ::4 | 图像令牌选择表达式 | 图像特征选择表达式 | ::4表示每4个取1个 |
force_offload | force_offload | True/False | True | 强制卸载 | 编码后卸载模型 | True节省显存 |
prompt_template | prompt_template | video/image等 | video | 提示词模板 | 提示词格式模板 | video用于视频生成 |
custom_prompt_template | custom_prompt_template | PROMPT_TEMPLATE | 可选 | 自定义模板 | 自定义提示词模板 | 连接自定义模板节点 |
clip_l | clip_l | CLIP | 可选 | CLIP模型 | CLIP文本编码器 | 可选的额外编码器 |
image1 | image1 | IMAGE | 可选 | 第一张图片 | 输入图像1 | 连接LoadImage节点 |
image2 | image2 | IMAGE | 可选 | 第二张图片 | 输入图像2 | 可选的第二张图片 |
clip_text_override | clip_text_override | 文本 | 空字符串 | CLIP文本覆盖 | 覆盖CLIP的提示词 | 给CLIP单独的提示词 |
hyvid_cfg | hyvid_cfg | HYVID_CFG | 可选 | CFG设置 | 分类器自由引导设置 | 连接CFG节点 |
model_to_offload | model_to_offload | HYVIDEOMODEL | 可选 | 要卸载的模型 | 临时卸载的模型 | 节省显存用 |
3.18 HyVideoI2VEncode 节点 - 图像到视频编码器
这个节点专门用于图像到视频的编码,就像把静态照片变成动态视频的准备工作。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
text_encoders | text_encoders | HYVIDTEXTENCODER | 必需 | 文本编码器 | I2V专用文本编码器 | 连接文本编码器 |
prompt | prompt | 文本 | 空字符串 | 提示词描述 | I2V提示词 | "让这张图片中的人物动起来" |
force_offload | force_offload | True/False | True | 强制卸载 | 编码后卸载模型 | True节省显存 |
prompt_template | prompt_template | I2V_video/I2V_image | I2V_video | I2V提示词模板 | I2V专用模板 | I2V_video用于视频生成 |
clip_l | clip_l | CLIP | 可选 | CLIP模型 | CLIP文本编码器 | 可选的辅助编码器 |
image | image | IMAGE | 可选 | 输入图像 | I2V的源图像 | 连接要动画化的图片 |
hyvid_cfg | hyvid_cfg | HYVID_CFG | 可选 | CFG设置 | I2V的CFG参数 | 连接CFG节点 |
image_embed_interleave | image_embed_interleave | 数字 | 2 | 图像嵌入交错 | 图像特征交错参数 | 2是默认值 |
model_to_offload | model_to_offload | HYVIDEOMODEL | 可选 | 要卸载的模型 | 临时卸载的模型 | 节省显存 |
3.19 HyVideoEncodeKeyframes 节点 - 关键帧编码器
这个节点用于编码关键帧,支持起始帧和结束帧的视频生成。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
vae | vae | VAE | 必需 | VAE编码器 | 变分自编码器 | 连接VAE加载器 |
start_image | start_image | IMAGE | 必需 | 起始图像,视频的第一帧 | 视频开始帧 | 连接起始图片 |
end_image | end_image | IMAGE | 必需 | 结束图像,视频的最后一帧 | 视频结束帧 | 连接结束图片 |
num_frames | num_frames | 数字 | 49 | 视频帧数 | 生成视频的总帧数 | 49帧约2秒 |
enable_vae_tiling | enable_vae_tiling | True/False | True | 启用VAE分块 | VAE分块处理 | True节省显存 |
temporal_tiling_sample_size | temporal_tiling_sample_size | 数字 | 64 | 时间分块大小 | 时间维度分块尺寸 | 64是标准值 |
spatial_tile_sample_min_size | spatial_tile_sample_min_size | 数字 | 256 | 空间分块最小尺寸 | 空间维度分块参数 | 256平衡性能 |
auto_tile_size | auto_tile_size | True/False | True | 自动分块大小 | 自动优化分块参数 | True使用推荐设置 |
noise_aug_strength | noise_aug_strength | 小数 | 0.0 | 噪声增强强度 | 噪声增强参数 | 0.02-0.05增加动态 |
latent_strength | latent_strength | 小数 | 1.0 | 潜在强度 | 潜在表示缩放 | 0.8-1.2调整强度 |
latent_dist | latent_dist | sample/mode | sample | 潜在分布采样 | VAE采样模式 | sample有随机性 |
3.20 HyVideoGetClosestBucketSize 节点 - 获取最接近的桶尺寸
这个节点根据输入图像计算最适合的生成尺寸,就像自动选择最合适的画布大小。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
image | image | IMAGE | 必需 | 输入图像,用于计算尺寸 | 参考图像 | 连接要分析的图片 |
base_size | base_size | 360/540/720 | 540 | 基础尺寸,不同的质量档次 | 基础分辨率档次 | 540平衡质量和速度 |
3.21 HyVideoLatentPreview 节点 - 潜在空间预览
这个节点可以预览潜在空间的内容,就像透过X光看到AI的"思考过程"。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
samples | samples | LATENT | 必需 | 潜在样本,要预览的数据 | 潜在空间表示 | 连接采样器输出 |
seed | seed | 数字 | 0 | 随机种子 | 预览随机种子 | 控制预览的随机性 |
min_val | min_val | 小数 | -0.15 | 最小值,颜色映射下限 | RGB映射最小值 | 调整预览亮度下限 |
max_val | max_val | 小数 | 0.15 | 最大值,颜色映射上限 | RGB映射最大值 | 调整预览亮度上限 |
r_bias | r_bias | 小数 | 0.0 | 红色偏移,调整红色通道 | 红色通道偏移 | 调整预览红色倾向 |
g_bias | g_bias | 小数 | 0.0 | 绿色偏移,调整绿色通道 | 绿色通道偏移 | 调整预览绿色倾向 |
b_bias | b_bias | 小数 | 0.0 | 蓝色偏移,调整蓝色通道 | 蓝色通道偏移 | 调整预览蓝色倾向 |
3.22 HyVideoTextEmbedsSave 节点 - 文本嵌入保存器
这个节点保存文本编码结果,就像把翻译好的"密码本"存起来重复使用。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
hyvid_embeds | hyvid_embeds | HYVIDEMBEDS | 必需 | 文本嵌入数据,要保存的编码结果 | 编码后的文本嵌入 | 连接文本编码器输出 |
filename_prefix | filename_prefix | 文本 | hyvid_embeds/hyvid_embed | 文件名前缀,保存的文件名 | 保存文件的前缀 | 自定义保存路径和名称 |
3.23 HyVideoTextEmbedsLoad 节点 - 文本嵌入加载器
这个节点加载之前保存的文本编码结果,避免重复编码。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
embeds | embeds | 文件列表 | 根据需要选择 | 选择要加载的嵌入文件 | 已保存的文本嵌入文件 | 选择之前保存的.safetensors文件 |
3.24 HyVideoTextEmbedBridge 节点 - 文本嵌入桥接器
这个节点连接ComfyUI原生的文本编码和混元视频,就像两个系统之间的"翻译官"。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
positive | positive | CONDITIONING | 必需 | 正向条件,ComfyUI的正面提示 | 正向条件编码 | 连接CLIP Text Encode |
cfg | cfg | 小数 | 1.0 | CFG强度 | 分类器自由引导强度 | 1.0-3.0控制遵循程度 |
start_percent | start_percent | 小数 | 0.0 | CFG开始百分比 | CFG应用起始百分比 | 0.0从头开始 |
end_percent | end_percent | 小数 | 1.0 | CFG结束百分比 | CFG应用结束百分比 | 1.0到最后 |
batched_cfg | batched_cfg | True/False | False | 批量CFG | 批量处理CFG | True更快但占显存 |
use_cfg_zero_star | use_cfg_zero_star | True/False | True | 使用CFG零星 | CFG零星优化 | True可能提升质量 |
negative | negative | CONDITIONING | 可选 | 负向条件,ComfyUI的负面提示 | 负向条件编码 | 连接负面CLIP编码 |
3.25 HyVideoCustomPromptTemplate 节点 - 自定义提示词模板
这个节点让你自定义提示词的格式,就像设计专属的"说话方式"。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
custom_prompt_template | custom_prompt_template | 文本 | 默认模板 | 自定义模板内容,设计提示词格式 | 自定义提示词模板字符串 | 包含{}占位符的模板 |
crop_start | crop_start | 数字 | 默认值 | 裁剪开始位置,去掉系统提示的前面部分 | 系统提示裁剪起始位置 | 调整系统提示的长度 |
3.26 HyVideoLoopArgs 节点 - 循环参数
这个节点设置视频循环效果的参数,让视频能够无缝循环播放。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
shift_skip | shift_skip | 数字 | 6 | 偏移跳过步数,循环的跳跃间隔 | 潜在偏移跳过步数 | 6是推荐值 |
start_percent | start_percent | 小数 | 0.0 | 循环开始百分比 | 循环效果起始百分比 | 0.0从头开始 |
end_percent | end_percent | 小数 | 1.0 | 循环结束百分比 | 循环效果结束百分比 | 1.0到最后 |
3.27 HunyuanVideoFresca 节点 - Fresca频率增强
这个节点使用Fresca技术进行频率域增强,提升视频的细节质量。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
fresca_scale_low | fresca_scale_low | 小数 | 1.0 | 低频缩放,调整低频成分 | 低频分量缩放因子 | 1.0保持原样 |
fresca_scale_high | fresca_scale_high | 小数 | 1.25 | 高频缩放,调整高频成分 | 高频分量缩放因子 | 1.25增强细节 |
fresca_freq_cutoff | fresca_freq_cutoff | 数字 | 20 | 频率截止点,分离高低频的界限 | 频率截止阈值 | 20是默认分界点 |
3.28 HunyuanVideoSLG 节点 - 跳过层引导
这个节点通过跳过某些层的无条件计算来优化生成过程。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
double_blocks | double_blocks | 文本 | 空字符串 | 双重块索引,要跳过的双重块 | 跳过无条件计算的双重块 | "0,1,2"表示跳过前3个 |
single_blocks | single_blocks | 文本 | "20" | 单一块索引,要跳过的单一块 | 跳过无条件计算的单一块 | "20,21,22"跳过指定块 |
start_percent | start_percent | 小数 | 0.4 | SLG开始百分比 | SLG信号起始百分比 | 0.4从40%开始 |
end_percent | end_percent | 小数 | 0.8 | SLG结束百分比 | SLG信号结束百分比 | 0.8在80%结束 |
RF Inversion 相关节点(高级功能)
3.29 HyVideoEmptyTextEmbeds 节点 - 空文本嵌入
这个节点提供空的文本嵌入,用于反向采样时避免重复编码提示词。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
无参数 | 无参数 | 无 | 无 | 生成空的文本嵌入,用于反向采样 | 提供预设的空文本嵌入 | 直接使用,无需设置参数 |
3.30 HyVideoInverseSampler 节点 - 反向采样器
这个节点执行反向采样,就像把视频"倒放"回噪声状态,用于视频编辑。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | HYVIDEOMODEL | 必需 | 视频模型 | 混元视频模型 | 连接模型加载器 |
hyvid_embeds | hyvid_embeds | HYVIDEMBEDS | 必需 | 文本嵌入 | 文本编码结果 | 通常连接空嵌入节点 |
samples | samples | LATENT | 必需 | 输入样本,要反向的视频 | 要反向采样的潜在表示 | 连接编码后的视频 |
steps | steps | 数字 | 30 | 反向步数 | 反向采样步数 | 30步平衡质量和速度 |
embedded_guidance_scale | embedded_guidance_scale | 小数 | 0.0 | 嵌入引导强度 | 嵌入式引导缩放 | 反向时通常设为0.0 |
flow_shift | flow_shift | 小数 | 1.0 | 流匹配偏移 | 流匹配调度器参数 | 1.0是反向采样推荐值 |
seed | seed | 数字 | 0 | 随机种子 | 随机数种子 | 控制反向过程的随机性 |
force_offload | force_offload | True/False | True | 强制卸载 | 完成后卸载模型 | True节省显存 |
gamma | gamma | 小数 | 0.5 | 伽马值,控制反向强度 | 反向采样强度参数 | 0.5是平衡值 |
start_step | start_step | 数字 | 0 | 开始步数 | 反向效果起始步数 | 0从头开始 |
end_step | end_step | 数字 | 18 | 结束步数 | 反向效果结束步数 | 18约60%的步数 |
gamma_trend | gamma_trend | constant等 | constant | 伽马趋势,强度变化方式 | 伽马值变化趋势 | constant保持恒定 |
interpolation_curve | interpolation_curve | 小数数组 | 可选 | 插值曲线,时间维度的强度分布 | 时间维度插值权重 | 控制不同时间点的强度 |
3.31 HyVideoReSampler 节点 - 重采样器
这个节点使用反向采样的结果进行重新生成,实现视频编辑效果。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | HYVIDEOMODEL | 必需 | 视频模型 | 混元视频模型 | 连接模型加载器 |
hyvid_embeds | hyvid_embeds | HYVIDEMBEDS | 必需 | 文本嵌入 | 新的文本编码结果 | 连接新的提示词编码 |
samples | samples | LATENT | 必需 | 目标样本,编辑目标 | 目标视频的潜在表示 | 连接目标视频编码 |
inversed_latents | inversed_latents | LATENT | 必需 | 反向潜在,反向采样结果 | 反向采样的潜在表示 | 连接反向采样器输出 |
steps | steps | 数字 | 30 | 重采样步数 | 重新生成的步数 | 30步平衡质量和速度 |
embedded_guidance_scale | embedded_guidance_scale | 小数 | 6.0 | 嵌入引导强度 | 嵌入式引导缩放 | 6.0是标准值 |
flow_shift | flow_shift | 小数 | 1.0 | 流匹配偏移 | 流匹配调度器参数 | 1.0是推荐值 |
force_offload | force_offload | True/False | True | 强制卸载 | 完成后卸载模型 | True节省显存 |
start_step | start_step | 数字 | 0 | 开始步数 | 反向效果起始步数 | 0从头开始 |
end_step | end_step | 数字 | 18 | 结束步数 | 反向效果结束步数 | 18约60%的步数 |
eta_base | eta_base | 小数 | 0.5 | 基础eta值,混合强度 | 反向潜在混合强度 | 0.5是平衡值 |
eta_trend | eta_trend | constant等 | constant | eta趋势,强度变化方式 | eta值变化趋势 | constant保持恒定 |
interpolation_curve | interpolation_curve | 小数数组 | 可选 | 插值曲线 | 时间维度插值权重 | 控制不同时间点的混合 |
feta_args | feta_args | FETAARGS | 可选 | Enhance-A-Video参数 | 视频增强参数 | 连接增强节点 |
3.32 HyVideoPromptMixSampler 节点 - 提示词混合采样器(实验性)
这个节点可以混合两个不同的提示词生成视频,创造独特的效果。
参数详解
参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 |
|---|
model | model | HYVIDEOMODEL | 必需 | 视频模型 | 混元视频模型 | 连接模型加载器 |
hyvid_embeds | hyvid_embeds | HYVIDEMBEDS | 必需 | 第一个文本嵌入 | 第一个提示词编码 | 连接第一个提示词 |
hyvid_embeds_2 | hyvid_embeds_2 | HYVIDEMBEDS | 必需 | 第二个文本嵌入 | 第二个提示词编码 | 连接第二个提示词 |
width | width | 数字 | 512 | 视频宽度 | 生成视频宽度 | 512、720等 |
height | height | 数字 | 512 | 视频高度 | 生成视频高度 | 512、720等 |
num_frames | num_frames | 数字 | 17 | 视频帧数 | 生成视频帧数 | 17帧约0.7秒 |
steps | steps | 数字 | 30 | 生成步数 | 采样步数 | 30步平衡质量速度 |
embedded_guidance_scale | embedded_guidance_scale | 小数 | 6.0 | 嵌入引导强度 | 嵌入式引导缩放 | 6.0是标准值 |
flow_shift | flow_shift | 小数 | 9.0 | 流匹配偏移 | 流匹配调度器参数 | 9.0是推荐值 |
force_offload | force_offload | True/False | True | 强制卸载 | 完成后卸载模型 | True节省显存 |
seed | seed | 数字 | 0 | 随机种子 | 随机数种子 | 控制生成随机性 |
alpha | alpha | 小数 | 0.5 | 混合锐度,控制混合的清晰度 | 混合锐度参数 | 0.5平衡混合 |
interpolation_curve | interpolation_curve | 小数数组 | 必需 | 插值曲线,控制时间维度的混合 | 时间维度混合权重 | 控制不同时间的提示词权重 |
feta_args | feta_args | FETAARGS | 可选 | Enhance-A-Video参数 | 视频增强参数 | 连接增强节点 |
4. 使用技巧和建议
4.1 显存优化技巧
使用block_swap: 连接HyVideoBlockSwap节点,设置double_blocks_to_swap为20可以大幅节省显存
启用VAE分块: 在解码时开启enable_vae_tiling,虽然可能有接缝但能节省大量显存
使用量化: 在模型加载器中选择fp8_e4m3fn量化可以减少显存使用
offload设备: 将不常用的组件加载到offload_device(CPU)
4.2 质量提升技巧
使用Enhance-A-Video: 连接HyVideoEnhanceAVideo节点,几乎免费提升视频质量
合适的CFG值: CFG设置在1.5-3.0之间通常效果最好
选择合适的步数: 30步是质量和速度的平衡点,50步质量更好但更慢
使用TeaCache: 连接HyVideoTeaCache节点可以在保持质量的同时加速生成
4.3 提示词技巧
4.4 不同应用场景的推荐设置
文字生成视频(T2V)
图片生成视频(I2V)
使用HyVideoI2VEncode + HyVideoSampler + HyVideoDecode
在采样器中连接image_cond_latents
降低denoise_strength到0.8-0.9
视频编辑(使用RF Inversion)
5. 常见问题解答
Q1: 显存不够怎么办?
A: 使用以下方法节省显存:
Q2: 生成速度太慢怎么办?
A: 尝试以下优化:
Q3: 生成的视频质量不好?
A: 检查以下设置:
连接HyVideoEnhanceAVideo节点
增加生成步数到40-50
调整CFG值到2.0-3.0
使用更详细的提示词
检查负面提示词设置
Q4: 视频出现闪烁怎么办?
A: 尝试以下方法:
在解码器中设置skip_latents为1-2
启用balance_brightness
检查帧数设置(必须是4n+1格式)
Q5: 如何生成更长的视频?
A: 使用上下文窗口:
Q6: LoRA不生效怎么办?
A: 检查以下设置:
6. 总结
ComfyUI-HunyuanVideoWrapper插件是一个功能强大的视频生成工具,包含37个节点,涵盖了从基础的文字生成视频到高级的视频编辑功能。通过合理配置这些节点,你可以:
生成高质量的AI视频
实现图片到视频的转换
进行复杂的视频编辑
优化显存使用和生成速度
应用各种风格和效果
记住,AI视频生成是一个需要实验和调试的过程。不要害怕尝试不同的参数组合,每个项目可能需要不同的设置。随着你对这些节点的熟悉,你将能够创造出令人惊叹的AI视频作品!
希望这个教程能帮助你快速上手ComfyUI-HunyuanVideoWrapper插件,开始你的AI视频创作之旅!