ComfyUI 魔法书 Logo
🏠 首页
👥 加群
😎 大帅比
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 😎 大帅比
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. ComfyUI插件EasyAnimate使用教程 手把手教你AI动画制作

ComfyUI插件EasyAnimate使用教程 手把手教你AI动画制作

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-06-27
  • 14 次阅读
编程界的小学生
编程界的小学生

【版权严正声明】

本文系作者 [编程界的小学生] 原创,并拥有完整、独立的著作权。

未经本人 书面授权 ,任何单位、平台或个人, 严禁 以任何形式(包括但不限于转载、复制、摘编、修改、链接、转贴、建立镜像等)使用本文的全部或部分内容。

任何无视本声明的侵权行为,本人将依据《中华人民共和国著作权法》等相关法律法规,采取一切必要的法律手段,追究其侵权责任,要求其 立即停止侵权、赔礼道歉、消除影响,并赔偿因此造成的一切经济损失及维权成本(包括但不限于律师费、诉讼费、公证费等)。

侵权必究,切勿以身试法!

1. 插件简介

EasyAnimate 是一个专门用于生成高质量视频的 ComfyUI 插件,就像是给 ComfyUI 装上了一个超级强大的视频制作工厂!

插件地址: https://github.com/aigc-apps/EasyAnimate

1.1 这个插件能做什么?

想象一下,你有一个神奇的工厂,可以:

  • 文字变视频:就像写作文一样,你写一段描述,它就能给你做出对应的视频

  • 图片变视频:把一张静态图片变成会动的视频,就像哈利波特里的魔法照片

  • 视频改视频:把一个视频按照你的要求改成另一个风格的视频

  • 控制视频生成:可以控制镜头怎么移动,物体怎么运动,就像当导演一样

这个插件支持多种分辨率(从 512x512 到 1024x1024),可以生成最长 6 秒的视频,帧率为 8fps。

2. 如何安装

方法一:通过 ComfyUI 管理器安装(推荐)

  1. 打开 ComfyUI

  2. 点击右下角的"Manager"按钮

  3. 搜索"EasyAnimate"

  4. 点击安装即可

方法二:手动安装

  1. 进入你的 ComfyUI 安装目录

  2. 打开 custom_nodes 文件夹

  3. 在命令行中执行:

git clone https://github.com/aigc-apps/EasyAnimate.gitcd EasyAnimate/pip install -r comfyui/requirements.txt

3. 节点详细解析

这个插件总共包含 16个节点,我将逐一为你详细解释每个节点的作用和参数。

3.1 LoadEasyAnimateModel 节点 - 模型加载器

这个节点就像是一个"模型仓库管理员",负责把各种不同的 EasyAnimate 模型加载到内存中,为后续的视频生成做准备。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

model

model

下拉选择

EasyAnimateV5.1-12b-zh-InP

选择要使用的模型版本,就像选择不同功能的相机

指定要加载的预训练模型版本,不同版本有不同的能力和特点

如果要做图生视频选择带"InP"的版本,要做文生视频选择不带"InP"的版本

GPU_memory_mode

GPU_memory_mode

下拉选择

model_cpu_offload

显存节省模式,就像调节电脑性能和省电的平衡

控制模型在GPU和CPU之间的内存分配策略

显存不够用选择"sequential_cpu_offload",显存够用选择"model_cpu_offload"

model_type

model_type

下拉选择

Inpaint

模型类型,决定这个模型主要用来做什么

指定模型的功能类型,Inpaint用于修复和生成,Control用于控制生成

一般情况选择"Inpaint",需要精确控制时选择"Control"

config

config

下拉选择

easyanimate_video_v5.1_magvit_qwen.yaml

配置文件,就像是模型的"说明书"

模型的配置文件,定义了模型的架构和参数

选择与你的模型版本对应的配置文件

precision

precision

下拉选择

bf16

精度设置,就像调节画质和速度的平衡

模型计算的数值精度,影响质量和速度

一般选择"bf16",如果显卡不支持可选择"fp16"

3.2 LoadEasyAnimateLora 节点 - Lora 加载器

这个节点就像是给模型"换装"的工具,可以让基础模型学会新的风格或特效。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收上一个节点传来的模型,就像接力棒

从LoadEasyAnimateModel节点接收模型对象

直接连接LoadEasyAnimateModel节点的输出

lora_name

lora_name

下拉选择

None

选择要加载的Lora文件,就像选择滤镜

指定要应用的LoRA权重文件名称

如果有训练好的风格Lora,在这里选择对应的文件

strength_model

strength_model

数值输入

1.0

Lora的强度,就像调节滤镜的浓度

LoRA权重的应用强度,范围-100到100

一般设置0.5-1.5之间,数值越大效果越明显

lora_cache

lora_cache

布尔选择

False

是否缓存Lora,就像是否保存设置

是否将LoRA权重缓存在内存中以提高效率

如果要生成多个视频且使用相同Lora,建议开启

3.3 TextBox 节点 - 文本输入框

这个节点就像是一个"文字记录本",用来输入你想要的文字描述。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

prompt

prompt

文本输入

""

输入你想要的内容描述,就像写作文

用于描述期望生成内容的文本提示词

输入"一只可爱的小猫在花园里玩耍"这样的描述

3.4 EasyAnimate_TextBox 节点 - EasyAnimate专用文本框

这个节点和上面的TextBox功能完全一样,只是专门为EasyAnimate设计的版本。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

prompt

prompt

文本输入

""

输入你想要的内容描述,就像写作文

用于描述期望生成内容的文本提示词

输入"一个美丽的日落场景,海浪轻拍沙滩"这样的描述

3.5 EasyAnimateT2VSampler 节点 - 文字生视频采样器

这个节点就像是一个"文字变视频的魔法师",把你写的文字描述变成真正的视频。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收模型,就像接收工具

从模型加载节点接收模型对象

连接LoadEasyAnimateModel或LoadEasyAnimateLora的输出

prompt

prompt

连接输入

-

接收正面描述,就像接收指令

接收描述期望内容的文本提示词

连接TextBox节点,描述你想要的视频内容

negative_prompt

negative_prompt

连接输入

-

接收负面描述,就像接收禁止事项

接收描述不希望出现内容的负面提示词

连接另一个TextBox,写"模糊,低质量"等不想要的效果

video_length

video_length

数值输入

72

视频长度,就像设置录像时间

生成视频的帧数,影响视频时长

设置72表示生成72帧的视频,约3秒钟

width

width

数值输入

1008

视频宽度,就像设置画面宽度

生成视频的像素宽度

常用尺寸:512、768、1008、1024

height

height

数值输入

576

视频高度,就像设置画面高度

生成视频的像素高度

常用尺寸:512、576、768、1024

is_image

is_image

布尔选择

False

是否生成图片而不是视频

控制输出是静态图像还是动态视频

如果只想要一张图片设置为True

seed

seed

数值输入

43

随机种子,就像抽奖的号码

控制随机性的种子值,相同种子产生相同结果

设置固定数值可以重现相同的生成结果

steps

steps

数值输入

25

生成步数,就像画画的精细程度

扩散模型的采样步数,影响质量和速度

一般设置20-30步,步数越多质量越好但速度越慢

cfg

cfg

数值输入

7.0

提示词遵循度,就像听话程度

分类器自由引导强度,控制对提示词的遵循程度

一般设置6-8,数值越高越严格按照提示词生成

scheduler

scheduler

下拉选择

DDIM

采样器类型,就像不同的画画方法

扩散模型的采样调度器类型

DDIM比较稳定,Euler速度快,DPM++质量好

3.6 EasyAnimateV5_T2VSampler 节点 - V5版本文字生视频采样器

这个节点是EasyAnimateT2VSampler的升级版,专门为V5版本模型设计,功能更强大。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收模型,就像接收工具

从模型加载节点接收模型对象

连接LoadEasyAnimateModel或LoadEasyAnimateLora的输出

prompt

prompt

连接输入

-

接收正面描述,就像接收指令

接收描述期望内容的文本提示词

连接TextBox节点,描述你想要的视频内容

negative_prompt

negative_prompt

连接输入

-

接收负面描述,就像接收禁止事项

接收描述不希望出现内容的负面提示词

连接另一个TextBox,写"模糊,低质量"等不想要的效果

video_length

video_length

数值输入

49

视频长度,就像设置录像时间

生成视频的帧数,V5版本最大支持49帧

设置49表示生成最长的视频,约6秒钟

width

width

数值输入

1008

视频宽度,就像设置画面宽度

生成视频的像素宽度

常用尺寸:512、768、1008、1024

height

height

数值输入

576

视频高度,就像设置画面高度

生成视频的像素高度

常用尺寸:512、576、768、1024

is_image

is_image

布尔选择

False

是否生成图片而不是视频

控制输出是静态图像还是动态视频

如果只想要一张图片设置为True

seed

seed

数值输入

43

随机种子,就像抽奖的号码

控制随机性的种子值,相同种子产生相同结果

设置固定数值可以重现相同的生成结果

steps

steps

数值输入

25

生成步数,就像画画的精细程度

扩散模型的采样步数,影响质量和速度

一般设置20-30步,步数越多质量越好但速度越慢

cfg

cfg

数值输入

7.0

提示词遵循度,就像听话程度

分类器自由引导强度,控制对提示词的遵循程度

一般设置6-8,数值越高越严格按照提示词生成

scheduler

scheduler

下拉选择

Flow

采样器类型,V5版本推荐Flow

扩散模型的采样调度器类型,V5版本新增Flow

Flow是V5版本的新采样器,效果更好

teacache_threshold

teacache_threshold

数值输入

0.10

缓存阈值,就像内存管理的标准

TeaCache优化的阈值参数,用于加速生成

一般保持默认值0.10即可

enable_teacache

enable_teacache

布尔选择

True

是否启用缓存优化,就像开启加速模式

是否启用TeaCache优化来提高生成速度

建议开启,可以显著提高生成速度

3.7 EasyAnimateI2VSampler 节点 - 图片生视频采样器

这个节点就像是一个"照片动画师",可以把静态图片变成会动的视频。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收模型,就像接收工具

从模型加载节点接收模型对象

连接LoadEasyAnimateModel或LoadEasyAnimateLora的输出

prompt

prompt

连接输入

-

接收正面描述,就像接收指令

接收描述期望内容的文本提示词

连接TextBox节点,描述你想要的动画效果

negative_prompt

negative_prompt

连接输入

-

接收负面描述,就像接收禁止事项

接收描述不希望出现内容的负面提示词

连接另一个TextBox,写"静止,无动作"等不想要的效果

video_length

video_length

数值输入

72

视频长度,就像设置录像时间

生成视频的帧数,影响视频时长

设置72表示生成72帧的视频,约3秒钟

base_resolution

base_resolution

下拉选择

768

基础分辨率,就像选择画质等级

视频生成的基础分辨率标准

768是比较平衡的选择,512速度快,1024质量高

seed

seed

数值输入

43

随机种子,就像抽奖的号码

控制随机性的种子值,相同种子产生相同结果

设置固定数值可以重现相同的生成结果

steps

steps

数值输入

25

生成步数,就像画画的精细程度

扩散模型的采样步数,影响质量和速度

一般设置20-30步,步数越多质量越好但速度越慢

cfg

cfg

数值输入

7.0

提示词遵循度,就像听话程度

分类器自由引导强度,控制对提示词的遵循程度

一般设置6-8,数值越高越严格按照提示词生成

scheduler

scheduler

下拉选择

DDIM

采样器类型,就像不同的画画方法

扩散模型的采样调度器类型

DDIM比较稳定,Euler速度快,DPM++质量好

start_img

start_img

可选连接

-

开始图片,就像动画的第一帧

视频开始时的参考图像

连接图片加载节点,提供要动画化的图片

end_img

end_img

可选连接

-

结束图片,就像动画的最后一帧

视频结束时的参考图像

可选,如果提供会让动画从开始图片过渡到结束图片

3.8 EasyAnimateV5_I2VSampler 节点 - V5版本图片生视频采样器

这个节点是EasyAnimateI2VSampler的升级版,专门为V5版本模型设计。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收模型,就像接收工具

从模型加载节点接收模型对象

连接LoadEasyAnimateModel或LoadEasyAnimateLora的输出

prompt

prompt

连接输入

-

接收正面描述,就像接收指令

接收描述期望内容的文本提示词

连接TextBox节点,描述你想要的动画效果

negative_prompt

negative_prompt

连接输入

-

接收负面描述,就像接收禁止事项

接收描述不希望出现内容的负面提示词

连接另一个TextBox,写"静止,无动作"等不想要的效果

video_length

video_length

数值输入

49

视频长度,V5版本最大49帧

生成视频的帧数,V5版本最大支持49帧

设置49表示生成最长的视频,约6秒钟

base_resolution

base_resolution

下拉选择

768

基础分辨率,就像选择画质等级

视频生成的基础分辨率标准

768是比较平衡的选择,512速度快,1024质量高

seed

seed

数值输入

43

随机种子,就像抽奖的号码

控制随机性的种子值,相同种子产生相同结果

设置固定数值可以重现相同的生成结果

steps

steps

数值输入

25

生成步数,就像画画的精细程度

扩散模型的采样步数,影响质量和速度

一般设置20-30步,步数越多质量越好但速度越慢

cfg

cfg

数值输入

7.0

提示词遵循度,就像听话程度

分类器自由引导强度,控制对提示词的遵循程度

一般设置6-8,数值越高越严格按照提示词生成

scheduler

scheduler

下拉选择

Flow

采样器类型,V5版本推荐Flow

扩散模型的采样调度器类型,V5版本新增Flow

Flow是V5版本的新采样器,效果更好

teacache_threshold

teacache_threshold

数值输入

0.10

缓存阈值,就像内存管理的标准

TeaCache优化的阈值参数,用于加速生成

一般保持默认值0.10即可

enable_teacache

enable_teacache

布尔选择

True

是否启用缓存优化,就像开启加速模式

是否启用TeaCache优化来提高生成速度

建议开启,可以显著提高生成速度

start_img

start_img

可选连接

-

开始图片,就像动画的第一帧

视频开始时的参考图像

连接图片加载节点,提供要动画化的图片

end_img

end_img

可选连接

-

结束图片,就像动画的最后一帧

视频结束时的参考图像

可选,如果提供会让动画从开始图片过渡到结束图片

3.9 EasyAnimateV2VSampler 节点 - 视频生视频采样器

这个节点就像是一个"视频改造师",可以把一个视频按照你的要求改造成另一个风格的视频。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收模型,就像接收工具

从模型加载节点接收模型对象

连接LoadEasyAnimateModel或LoadEasyAnimateLora的输出

prompt

prompt

连接输入

-

接收正面描述,就像接收指令

接收描述期望内容的文本提示词

连接TextBox节点,描述你想要的视频风格

negative_prompt

negative_prompt

连接输入

-

接收负面描述,就像接收禁止事项

接收描述不希望出现内容的负面提示词

连接另一个TextBox,写"模糊,低质量"等不想要的效果

video_length

video_length

数值输入

72

视频长度,就像设置录像时间

生成视频的帧数,影响视频时长

设置72表示生成72帧的视频,约3秒钟

base_resolution

base_resolution

下拉选择

768

基础分辨率,就像选择画质等级

视频生成的基础分辨率标准

768是比较平衡的选择,512速度快,1024质量高

seed

seed

数值输入

43

随机种子,就像抽奖的号码

控制随机性的种子值,相同种子产生相同结果

设置固定数值可以重现相同的生成结果

steps

steps

数值输入

25

生成步数,就像画画的精细程度

扩散模型的采样步数,影响质量和速度

一般设置20-30步,步数越多质量越好但速度越慢

cfg

cfg

数值输入

7.0

提示词遵循度,就像听话程度

分类器自由引导强度,控制对提示词的遵循程度

一般设置6-8,数值越高越严格按照提示词生成

denoise_strength

denoise_strength

数值输入

0.70

去噪强度,就像改造程度

控制对原视频的修改程度,0-1之间

0.5保持原样较多,0.8改动较大,0.3改动较小

scheduler

scheduler

下拉选择

DDIM

采样器类型,就像不同的画画方法

扩散模型的采样调度器类型

DDIM比较稳定,Euler速度快,DPM++质量好

validation_video

validation_video

可选连接

-

输入视频,就像要改造的原材料

作为参考的输入视频

连接视频加载节点,提供要改造的原视频

control_video

control_video

可选连接

-

控制视频,就像改造的模板

用于控制生成的参考视频

可选,提供控制信息的视频

3.10 EasyAnimateV5_V2VSampler 节点 - V5版本视频生视频采样器

这个节点是EasyAnimateV2VSampler的升级版,专门为V5版本模型设计,功能更强大。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

easyanimate_model

easyanimate_model

连接输入

-

接收模型,就像接收工具

从模型加载节点接收模型对象

连接LoadEasyAnimateModel或LoadEasyAnimateLora的输出

prompt

prompt

连接输入

-

接收正面描述,就像接收指令

接收描述期望内容的文本提示词

连接TextBox节点,描述你想要的视频风格

negative_prompt

negative_prompt

连接输入

-

接收负面描述,就像接收禁止事项

接收描述不希望出现内容的负面提示词

连接另一个TextBox,写"模糊,低质量"等不想要的效果

video_length

video_length

数值输入

49

视频长度,V5版本最大49帧

生成视频的帧数,V5版本最大支持49帧

设置49表示生成最长的视频,约6秒钟

base_resolution

base_resolution

下拉选择

768

基础分辨率,就像选择画质等级

视频生成的基础分辨率标准

768是比较平衡的选择,512速度快,1024质量高

seed

seed

数值输入

43

随机种子,就像抽奖的号码

控制随机性的种子值,相同种子产生相同结果

设置固定数值可以重现相同的生成结果

steps

steps

数值输入

25

生成步数,就像画画的精细程度

扩散模型的采样步数,影响质量和速度

一般设置20-30步,步数越多质量越好但速度越慢

cfg

cfg

数值输入

7.0

提示词遵循度,就像听话程度

分类器自由引导强度,控制对提示词的遵循程度

一般设置6-8,数值越高越严格按照提示词生成

denoise_strength

denoise_strength

数值输入

0.70

去噪强度,就像改造程度

控制对原视频的修改程度,0-1之间

0.5保持原样较多,0.8改动较大,0.3改动较小

scheduler

scheduler

下拉选择

Flow

采样器类型,V5版本推荐Flow

扩散模型的采样调度器类型,V5版本新增Flow

Flow是V5版本的新采样器,效果更好

teacache_threshold

teacache_threshold

数值输入

0.10

缓存阈值,就像内存管理的标准

TeaCache优化的阈值参数,用于加速生成

一般保持默认值0.10即可

enable_teacache

enable_teacache

布尔选择

True

是否启用缓存优化,就像开启加速模式

是否启用TeaCache优化来提高生成速度

建议开启,可以显著提高生成速度

validation_video

validation_video

可选连接

-

输入视频,就像要改造的原材料

作为参考的输入视频

连接视频加载节点,提供要改造的原视频

control_video

control_video

可选连接

-

控制视频,就像改造的模板

用于控制生成的参考视频

可选,提供控制信息的视频

camera_conditions

camera_conditions

可选连接

-

相机条件,就像镜头运动指令

相机运动的控制参数

连接相机控制节点,控制镜头如何移动

ref_image

ref_image

可选连接

-

参考图片,就像风格模板

作为风格参考的图像

连接图片加载节点,提供风格参考

3.11 CreateTrajectoryBasedOnKJNodes 节点 - 轨迹创建器

这个节点就像是一个"运动轨迹设计师",可以为物体设计运动路径。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

coordinates

coordinates

连接输入

-

坐标信息,就像运动路线图

物体运动的坐标序列数据

连接坐标生成节点,定义物体的运动轨迹

masks

masks

连接输入

-

遮罩信息,就像运动区域标记

定义运动区域的遮罩图像

连接遮罩节点,标记哪些区域会运动

3.12 ImageMaximumNode 节点 - 图像最大值合并器

这个节点就像是一个"图像合并器",可以把两个视频的最亮部分合并在一起。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

video_1

video_1

连接输入

-

第一个视频,就像第一层画面

第一个输入视频序列

连接视频节点,提供第一个要合并的视频

video_2

video_2

连接输入

-

第二个视频,就像第二层画面

第二个输入视频序列

连接另一个视频节点,提供第二个要合并的视频

3.13 CameraBasicFromChaoJie 节点 - 基础相机控制器

这个节点就像是一个"摄影师助手",可以控制虚拟相机的基本运动。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

camera_pose

camera_pose

下拉选择

Static

相机姿态,就像选择拍摄角度

相机的运动类型和方向

Static静止,Pan Up向上移动,Zoom In放大等

speed

speed

数值输入

1.0

运动速度,就像调节快慢

相机运动的速度倍数

1.0是正常速度,2.0是两倍速,0.5是半速

video_length

video_length

数值输入

16

视频长度,就像设置拍摄时间

生成相机运动的帧数

16帧约2秒,32帧约4秒

3.14 CameraCombineFromChaoJie 节点 - 组合相机控制器

这个节点就像是一个"复杂运镜设计师",可以组合多种相机运动。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

camera_pose1

camera_pose1

下拉选择

Static

第一个相机动作,就像第一个拍摄动作

第一种相机运动类型

选择Pan Up,表示先向上移动

camera_pose2

camera_pose2

下拉选择

Static

第二个相机动作,就像第二个拍摄动作

第二种相机运动类型

选择Pan Left,表示再向左移动

camera_pose3

camera_pose3

下拉选择

Static

第三个相机动作,就像第三个拍摄动作

第三种相机运动类型

选择Zoom In,表示最后放大

camera_pose4

camera_pose4

下拉选择

Static

第四个相机动作,就像第四个拍摄动作

第四种相机运动类型

可以保持Static不动,或添加更多动作

speed

speed

数值输入

1.0

运动速度,就像调节快慢

相机运动的速度倍数

1.0是正常速度,数值越大运动越快

video_length

video_length

数值输入

16

视频长度,就像设置拍摄时间

生成相机运动的帧数

16帧约2秒,所有动作会在这个时间内完成

3.15 CameraJoinFromChaoJie 节点 - 相机动作连接器

这个节点就像是一个"动作拼接器",可以把两段相机运动连接起来。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

camera_pose1

camera_pose1

连接输入

-

第一段相机动作,就像第一个镜头

第一个相机运动序列

连接CameraBasic节点,提供第一段运动

camera_pose2

camera_pose2

连接输入

-

第二段相机动作,就像第二个镜头

第二个相机运动序列

连接另一个CameraBasic节点,提供第二段运动

3.16 CameraTrajectoryFromChaoJie 节点 - 相机轨迹转换器

这个节点就像是一个"运动数据翻译器",把相机运动转换成可以使用的数据格式。

参数详解

参数名 (UI显示)

参数名 (代码里)

参数值

建议值

通俗解释 (能干嘛的)

专业解释

怎么用/举个例子

camera_pose

camera_pose

连接输入

-

相机姿态数据,就像运动记录

从相机控制节点接收的运动数据

连接CameraBasic或CameraJoin节点的输出

fx

fx

数值输入

0.474812461

焦距X,就像镜头的水平视角

相机内参中的水平焦距参数

一般保持默认值,除非需要特殊的透视效果

fy

fy

数值输入

0.844111024

焦距Y,就像镜头的垂直视角

相机内参中的垂直焦距参数

一般保持默认值,除非需要特殊的透视效果

cx

cx

数值输入

0.5

中心点X,就像画面的水平中心

相机内参中的水平中心点坐标

0.5表示画面正中央,一般不需要修改

cy

cy

数值输入

0.5

中心点Y,就像画面的垂直中心

相机内参中的垂直中心点坐标

0.5表示画面正中央,一般不需要修改

4. 使用技巧和建议

4.1 显存优化建议

  • 16GB显存:使用 sequential_cpu_offload 模式,选择较小的分辨率(512x512)

  • 24GB显存:使用 model_cpu_offload_and_qfloat8 模式,可以使用中等分辨率(768x768)

  • 40GB以上显存:使用 model_cpu_offload 模式,可以使用最高分辨率(1024x1024)

4.2 参数调优建议

  • Steps(步数):20-30步是比较好的平衡点,太少质量差,太多速度慢

  • CFG(引导强度):6-8是推荐范围,太高可能过度拟合提示词

  • Seed(随机种子):固定种子可以重现结果,便于调试参数

4.3 提示词编写技巧

  • 正面提示词:详细描述想要的内容,包括场景、动作、风格等

  • 负面提示词:写明不想要的效果,如"模糊、低质量、静止"等

  • 多语言支持:V5.1版本支持中文和英文,可以用中文描述

4.4 工作流搭建建议

  • 基础流程:模型加载 → 文本输入 → 采样器 → 输出

  • 进阶流程:添加Lora → 相机控制 → 轨迹控制

  • 批量处理:使用相同的模型设置,只改变提示词或种子

5. 常见问题解答

5.1 显存不足怎么办?

问题:运行时提示显存不足 解决方案:

  1. 选择 sequential_cpu_offload 模式

  2. 降低分辨率设置

  3. 减少视频长度

  4. 启用 qfloat8 量化

5.2 生成速度太慢怎么办?

问题:生成一个视频需要很长时间 解决方案:

  1. 启用 enable_teacache 选项

  2. 减少采样步数到20步

  3. 使用较小的分辨率

  4. 选择 model_cpu_offload 而不是 sequential_cpu_offload

5.3 生成的视频质量不好怎么办?

问题:生成的视频模糊或不符合预期 解决方案:

  1. 增加采样步数到30-40步

  2. 调整CFG值到7-9

  3. 优化提示词描述

  4. 尝试不同的调度器(如Flow、DDIM)

5.4 如何控制视频中的运动?

问题:想要精确控制物体或镜头的运动 解决方案:

  1. 使用相机控制节点控制镜头运动

  2. 使用轨迹控制节点控制物体运动

  3. 在提示词中详细描述运动方式

  4. 使用参考图片或视频

5.5 模型加载失败怎么办?

问题:提示找不到模型文件 解决方案:

  1. 确认模型文件放在正确的路径:ComfyUI/models/EasyAnimate/

  2. 检查模型文件是否完整下载

  3. 确认选择的配置文件与模型版本匹配

  4. 重启ComfyUI

6. 总结

EasyAnimate 是一个功能强大的视频生成插件,总共包含 16个节点,本教程已经全部详细解析完成。这些节点可以分为几个主要类别:

  • 模型管理节点(2个):LoadEasyAnimateModel、LoadEasyAnimateLora

  • 文本输入节点(2个):TextBox、EasyAnimate_TextBox

  • 视频生成节点(6个):各种采样器节点

  • 控制辅助节点(6个):轨迹控制、相机控制、图像处理等

通过合理组合这些节点,你可以实现从简单的文字生视频,到复杂的多重控制视频生成。记住,熟练使用这个插件需要多多练习,建议从简单的文字生视频开始,逐步尝试更复杂的功能。

希望这份教程能帮助你快速上手 EasyAnimate 插件,创作出令人惊艳的视频作品!

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号