ComfyUI 魔法书 Logo
🏠 首页
👥 加群
🔥 报错不求人
😎 大帅比
登录 →
ComfyUI 魔法书 Logo
🏠 首页 👥 加群 🔥 报错不求人 😎 大帅比
登录
  1. 首页
  2. 🧩 插件工坊 (Plugin Workshop)
  3. ComfyUI FL-Trainer插件使用教程 从入门到精通

ComfyUI FL-Trainer插件使用教程 从入门到精通

0
  • 🧩 插件工坊 (Plugin Workshop)
  • 发布于 2025-06-30
  • 80 次阅读
编程界的小学生
编程界的小学生

ComfyUI FL-Trainer 插件保姆级教程

1. 插件简介

插件原地址: https://github.com/filliptm/ComfyUI_FL-Trainer

这个插件就像是一个专业的AI画师培训学校!它能让你在ComfyUI里面训练自己的LoRA模型。什么是LoRA?你可以把它想象成给AI画师"上课"的过程,教它学会画特定的人物、风格或者物品。

能给我们带来什么效果?

  • 训练专属的人物LoRA:比如训练你自己的脸,让AI能画出你的样子
  • 训练风格LoRA:比如训练某个画家的风格,让AI学会那种画风
  • 训练物品LoRA:比如训练你家的宠物,让AI能画出你的猫咪狗狗
  • 一键式简单训练:不需要复杂设置,新手也能轻松上手
  • 专业级高级训练:给高手用户提供各种细致的调节选项

想象一下:你有10张自己的照片,用这个插件训练后,AI就能画出各种风格的"你",比如动漫版的你、油画版的你、卡通版的你!

2. 如何安装

方法一:直接下载(推荐新手)

  1. 打开你的 ComfyUI 安装文件夹
  2. 找到 custom_nodes 这个文件夹(就像是插件的家)
  3. 在这个文件夹里,右键选择"在终端中打开"或者"Git Bash Here"
  4. 输入这个命令:
git clone https://github.com/filliptm/ComfyUI_FL-Trainer.git

方法二:手动下载

  1. 访问 https://github.com/filliptm/ComfyUI_FL-Trainer
  2. 点击绿色的 "Code" 按钮
  3. 选择 "Download ZIP"
  4. 解压到 ComfyUI 的 custom_nodes 文件夹里

安装依赖包(重要!)

插件下载完成后,需要安装一些必要的工具包。在ComfyUI的环境中运行:

pip install -r requirements.txt

3. 节点详细解析

3.1 FL Kohya Workspace 节点

这个节点是干嘛的?
这个节点就像是给你的训练项目建立一个专门的工作室。就像画家需要一个画室一样,训练LoRA也需要一个专门的地方来存放所有的文件和设置。它会帮你下载训练需要的工具,创建文件夹,准备好一切。

3.2 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
lora_namelora_nameSTRING自定义名称给你的LoRA起个名字,就像给孩子起名字一样定义LoRA模型的名称,用于文件夹和文件命名比如输入"我的猫咪",训练出来的模型就叫这个名字
branchbranchSTRING默认值选择训练工具的版本,就像选择软件的版本号指定Kohya训练脚本的Git分支版本一般用默认值就行,除非你知道要用特定版本
sourcesource选择列表github选择下载训练工具的网站,就像选择下载软件的网站选择Git仓库的镜像源,影响下载速度如果github慢就选其他的,比如521github
seedseedINT0随机数种子,就像掷骰子的起始点控制随机性的种子值,确保结果可重现用0就行,想要完全相同的结果就用相同数字

3.3 FL Kohya Dataset Config 节点

这个节点是干嘛的?
这个节点就像是一个智能的图片整理员。你把要训练的图片和描述文字给它,它就会帮你整理好,调整大小,打上标签,准备好给AI学习用的"教材"。

3.4 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
workspace_configworkspace_configFL_TT_SS_WorkspaceConfig连接上个节点连接工作室配置,就像告诉它在哪个房间工作接收工作空间配置信息从FL Kohya Workspace节点连过来
imagesimagesIMAGE训练图片你要训练的图片,就像给老师看的教学材料输入的图像数据用于训练连接你准备好的训练图片
captionscaptionsSTRING图片描述每张图片的文字描述,告诉AI这张图片是什么图像的文本描述,用于训练时的条件输入比如"一只橘色的猫在睡觉"
enable_bucketenable_bucket选择列表enable智能分组功能,把相似大小的图片放一起启用分桶功能,按图片尺寸分组处理建议开启,能提高训练效果
resolutionresolutionINT1024图片的清晰度大小,就像调节照片的像素训练图像的分辨率大小512适合SD1.5,1024适合SDXL
num_repeatsnum_repeatsINT1每张图片重复学习的次数,就像背书要背几遍每个图像在训练中重复的次数图片少就设大一点,比如10-30
caption_extensioncaption_extension选择列表.caption描述文件的后缀名,就像文件的"姓氏"标注文件的扩展名格式.txt比较常用,.caption也可以
batch_sizebatch_sizeINT1一次处理几张图片,就像一次洗几件衣服批处理大小,影响内存使用和训练速度显存小就用1,显存大可以用2-4
force_clearforce_clear选择列表disable是否清空之前的文件,就像是否要重新开始强制清除已存在的训练数据一般不开启,除非要完全重新开始
force_clear_only_imagesforce_clear_only_images选择列表disable只清空图片文件,保留其他设置仅清除图像文件,保留其他配置想换图片但保留设置时用
image_formatimage_format选择列表jpg保存图片的格式,就像选择照片是JPG还是PNG训练图像保存的文件格式jpg文件小,png质量好,webp平衡
dataset_config_extensiondataset_config_extension选择列表.json配置文件的格式,就像选择用什么格式记录数据集配置文件的格式json比较通用,toml也可以
conditioning_imagesconditioning_imagesIMAGE可选额外的参考图片,就像给更多的学习材料可选的条件图像输入不是必须的,有的话可以提供更多信息

3.5 FL Kohya Adv Config 节点

这个节点是干嘛的?
这个节点就像是训练的"高级设置面板"。就像游戏里的高级选项一样,这里有很多专业的调节选项,可以让训练效果更好,速度更快,或者适应不同的电脑配置。

3.6 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
xformersxformers选择列表enable加速训练的工具,就像给汽车装涡轮增压启用xformers优化,减少显存使用有N卡建议开启,能节省显存
sdpasdpa选择列表disable另一种加速方式,和上面的二选一启用SDPA注意力优化一般用xformers就够了
fp8_basefp8_base选择列表disable超级节省显存的模式,但可能影响质量启用FP8精度训练显存特别小才用,一般不建议
mixed_precisionmixed_precision选择列表fp16数字精度设置,就像选择计算的精确程度混合精度训练设置fp16平衡效果和速度,bf16更稳定
gradient_accumulation_stepsgradient_accumulation_stepsINT1梯度累积步数,就像攒够了再一起处理梯度累积的步数,模拟更大的批次显存小可以设2-4,模拟更大批次
gradient_checkpointinggradient_checkpointing选择列表disable节省显存但会变慢,就像用时间换空间启用梯度检查点以节省显存显存不够时开启,会变慢但省显存
cache_latentscache_latents选择列表enable缓存处理过的图片,下次训练更快缓存潜在空间表示以加速训练建议开启,能大幅提升速度
cache_latents_to_diskcache_latents_to_disk选择列表enable把缓存保存到硬盘,节省内存将潜在空间缓存保存到磁盘建议开启,节省内存
network_dimnetwork_dimINT16LoRA的"容量"大小,就像书包的大小LoRA网络的维度大小16-64都可以,越大越精细但文件越大
network_alphanetwork_alphaINT8学习强度控制,就像调节学习的"用力程度"LoRA网络的alpha参数一般是dim的一半,比如dim=32就用16
network_modulenetwork_module选择列表networks.lora选择训练的类型,就像选择学习的方法网络模块类型选择lora最常用,dylora更灵活,oft是新方法
network_train_unet_onlynetwork_train_unet_only选择列表enable只训练画图部分,不训练文字理解部分仅训练UNet部分,不训练文本编码器一般开启,训练更稳定
lr_schedulerlr_scheduler选择列表cosine学习速度的变化方式,就像跑步的节奏学习率调度器类型cosine比较稳定,constant简单直接
lr_scheduler_num_cycleslr_scheduler_num_cyclesINT1学习节奏的循环次数学习率调度器的循环次数一般用1就够了
optimizer_typeoptimizer_type选择列表AdamW优化器类型,就像选择学习的"方法论"优化算法的选择AdamW稳定,AdaFactor省显存,Lion收敛快
lr_warmup_stepslr_warmup_stepsINT0开始时慢慢加速,就像热身运动学习率预热步数一般用0,长时间训练可以设100-500
unet_lrunet_lrSTRING空画图部分的学习速度UNet的学习率设置留空用全局设置,或者设置如"1e-4"
text_encoder_lrtext_encoder_lrSTRING空文字理解部分的学习速度文本编码器的学习率留空或设置比unet小一半的值
shuffle_captionshuffle_caption选择列表disable打乱描述文字的顺序,增加随机性随机打乱标注文本的顺序可以开启,增加训练的多样性
save_precisionsave_precision选择列表fp16保存模型的精度,影响文件大小模型保存时的精度格式fp16文件小,float质量好
persistent_data_loader_workerspersistent_data_loader_workers选择列表enable保持数据加载进程,提高效率持久化数据加载器工作进程建议开启,能提高数据加载速度
no_metadatano_metadata选择列表enable不保存额外信息,减小文件大小不在模型中保存元数据信息建议开启,文件更小
noise_offsetnoise_offsetFLOAT0.1添加噪声偏移,提高训练稳定性噪声偏移量,改善训练稳定性0.05-0.1比较合适,太大会影响质量
no_half_vaeno_half_vae选择列表enableVAE使用全精度,避免黑图问题VAE不使用半精度,避免数值问题建议开启,避免生成黑色图片
lowramlowram选择列表disable低内存模式,适合内存小的电脑启用低内存模式内存不够16GB时可以开启

3.7 FL Kohya Train 节点

这个节点是干嘛的?
这个节点就是真正的"训练师"!它把前面准备好的所有材料(工作室、图片、设置)整合起来,开始正式训练你的LoRA模型。就像把学生、教材、教室都准备好后,开始正式上课一样。

3.8 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
workspace_configworkspace_configFL_TT_SS_WorkspaceConfig连接工作室节点工作室的配置信息,告诉它在哪里工作工作空间配置数据从FL Kohya Workspace节点连过来
train_config_templatetrain_config_template选择列表lora_sd1_5训练模板,就像选择课程大纲预设的训练配置模板SD1.5用lora_sd1_5,SDXL用lora_sdxl
ckpt_nameckpt_name选择列表选择模型基础模型,就像选择在哪个"老师"基础上学习基础检查点模型文件选择你常用的底模,比如realistic或anime
max_train_stepsmax_train_stepsINT0最大训练步数,0表示用轮数控制训练的最大步数限制一般设0,用轮数控制比较直观
max_train_epochsmax_train_epochsINT100训练轮数,就像学习要学几遍训练的最大轮数10-50轮比较常见,图片多可以少一点
save_every_n_epochssave_every_n_epochsINT1每几轮保存一次,就像定期存档每隔多少轮保存一次模型1表示每轮都保存,可以设5或10
learning_ratelearning_rateSTRING0.0001学习速度,就像学习的快慢程度学习率参数0.0001比较稳定,0.001学得快但可能不稳定
base_lorabase_lora选择列表latest基础LoRA,可以在别的LoRA基础上继续训练基础LoRA模型选择latest用最新的,empty从头开始
sample_promptsample_promptSTRING空测试提示词,训练时会生成样图看效果用于生成样本图像的提示词比如"a photo of sks person",sks是触发词
advanced_configadvanced_configFL_TT_SS_AdvConfig连接高级配置高级设置的配置信息高级配置参数从FL Kohya Adv Config节点连过来
caption_completed_flagcaption_completed_flag任意类型可选标注完成标志,确保图片都处理好了标注完成的标志信号可选连接,确保数据准备完成

3.9 FL Kohya Data Loader 节点

这个节点是干嘛的?
这个节点就像是一个智能的文件管理员。你告诉它一个文件夹的路径,它就会自动找到里面的所有图片和对应的描述文件,然后整理好给其他节点使用。特别适合你已经准备好了一堆图片和描述文件的情况。

3.10 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
directorydirectorySTRINGX://path/to/images图片文件夹的路径,就像告诉它去哪里找图片包含训练图像的目录路径比如"C:/my_photos"或"/home/user/images"
caption_extensioncaption_extension选择列表.txt描述文件的后缀名,告诉它找什么格式的描述文件标注文件的扩展名.txt最常用,.caption也可以

3.11 FL Kohya Easy Train 节点

这个节点是干嘛的?
这个节点就像是一个"一键训练大师"!它把所有复杂的设置都简化了,你只需要提供最基本的信息(图片文件夹、模型名字等),它就会自动帮你完成整个训练过程。特别适合新手或者不想折腾复杂设置的用户。

3.12 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
lora_namelora_nameSTRINGmy_loraLoRA的名字,就像给你的作品起个名字LoRA模型的名称标识比如"我的猫咪"、"动漫风格"等
resolutionresolutionINT512图片分辨率,就像选择照片的清晰度训练图像的分辨率大小512适合SD1.5,1024适合SDXL
train_config_templatetrain_config_template选择列表lora_sd1_5训练模板,选择适合的训练方案预设的训练配置模板SD1.5用lora_sd1_5,SDXL用lora_sdxl
num_repeatsnum_repeatsINT30每张图片重复学习次数,图片少就多重复几次每个图像的重复次数图片少设30-50,图片多设10-20
image_directoryimage_directorySTRINGpath/to/images+captions.txt图片和描述文件的文件夹路径包含训练数据的目录路径确保文件夹里有图片和对应的.txt描述文件
ckpt_nameckpt_name选择列表选择模型基础模型,选择你要在哪个模型基础上训练基础检查点模型选择选择你常用的底模
sample_promptsample_promptSTRINGSampling prompt here测试提示词,训练时生成样图看效果用于生成测试样本的提示词写一个能触发你训练内容的提示词
xformersxformers选择列表disable加速优化开关,有N卡建议开启xformers优化开关有NVIDIA显卡建议enable
lowvramlowvram选择列表disable低显存模式,显存不够时开启低显存模式开关显存小于8GB时建议enable
learning_ratelearning_rateFLOAT0.0001学习速度,就像调节学习的快慢学习率参数0.0001比较稳定,可以微调
epochsepochsINT10训练轮数,就像要学习多少遍训练的轮数10-30轮比较合适,根据效果调整

3.13 FL Image Caption Saver 节点

这个节点是干嘛的?
这个节点就像是一个贴心的文件管理助手。它能把图片和对应的描述文字一起保存到指定的文件夹里,而且会自动给文件起名字,整理得整整齐齐。特别适合你想要批量保存图片和描述的时候。

3.14 参数详解

参数名 (界面显示)参数名 (代码里)参数类型建议值通俗解释 (能干嘛的)专业解释怎么用/举个例子
imagesimagesIMAGE连接图片要保存的图片,就像要整理的照片输入的图像数据从其他节点连接过来的图片
folder_namefolder_nameSTRINGoutput_folder保存的文件夹名字,就像选择相册的名字保存文件的目录名称比如"我的训练数据"、"processed_images"
caption_textcaption_textSTRINGYour caption here图片的描述文字,会保存成txt文件图像的文本描述内容比如"一只可爱的橘猫在阳光下睡觉"
overwriteoverwriteBOOLEANTrue是否覆盖同名文件,就像是否替换已有的照片是否覆盖已存在的文件True会替换,False会重新命名

3.15 前端JavaScript功能 - FL_Trainer.js

这个功能是干嘛的?
这是一个前端的视觉效果功能,就像给节点加了一个漂亮的动画装饰。当你使用FL_KohyaSSDatasetConfig节点时,会在节点上方显示一个炫酷的动态效果,有彩色的小球在移动和连线,让界面更加生动有趣。

功能特点:

  • 在FL_KohyaSSDatasetConfig节点上方显示动画
  • 10个彩色小球随机移动
  • 小球之间有连线效果
  • 碰到边界会反弹并变色
  • 固定大小的动画区域(50x60像素)

3.16 前端JavaScript功能 - appearance.js

这个功能是干嘛的?
这是一个外观美化功能,就像给所有FL开头的节点换了一套漂亮的"衣服"。它会自动识别所有以"FL_"开头的节点,然后给它们统一的颜色主题,让整个工作流看起来更加协调美观。

功能特点:

  • 自动识别所有FL_开头的节点
  • 统一设置节点颜色为青蓝色调(#16727c)
  • 统一设置背景色为紫色调(#4F0074)
  • 让所有FL插件节点有统一的视觉风格

4. 使用技巧和建议

4.1 新手推荐工作流

简单一键训练流程:

FL Kohya Easy Train → 完成

这是最简单的方式,只需要准备好图片文件夹和描述文件就能开始训练。

4.2 进阶用户工作流

完整专业训练流程:

FL Kohya Workspace → FL Kohya Dataset Config → FL Kohya Adv Config → FL Kohya Train

这个流程给你最大的控制权,可以精细调节每个参数。

4.3 数据准备工作流

从文件夹加载数据:

FL Kohya Data Loader → FL Kohya Dataset Config → ...

适合你已经准备好图片和描述文件的情况。

4.4 数据整理工作流

保存整理数据:

图片输入 → FL Image Caption Saver → 保存到文件夹

适合批量保存和整理训练数据。

4.5 训练参数建议

新手建议设置:

  • 分辨率:SD1.5用512,SDXL用1024
  • 训练轮数:10-20轮
  • 学习率:0.0001
  • Network Dim:16-32
  • 重复次数:图片少用30-50,图片多用10-20

进阶用户设置:

  • 可以尝试更高的Network Dim(64-128)
  • 调节不同的优化器(AdaFactor省显存,Lion收敛快)
  • 使用噪声偏移提高稳定性
  • 开启各种加速优化

4.6 硬件配置建议

最低配置:

  • 显存:6GB以上
  • 内存:16GB以上
  • 硬盘:至少10GB空闲空间

推荐配置:

  • 显存:12GB以上
  • 内存:32GB以上
  • 硬盘:SSD,至少50GB空闲空间

优化建议:

  • 显存不够:开启lowvram,使用gradient_checkpointing
  • 内存不够:开启cache_latents_to_disk
  • 速度慢:开启xformers,使用更大的batch_size

5. 常见问题解答

Q1: 训练出来的LoRA效果不好怎么办?

A: 可能的原因和解决方法:

  • 图片质量问题: 确保训练图片清晰,主体明确
  • 描述不准确: 检查caption是否准确描述了图片内容
  • 参数设置: 尝试调整学习率、训练轮数、Network Dim
  • 数据量问题: 图片太少可以增加重复次数,太多可以减少轮数

Q2: 训练过程中出现显存不足错误?

A: 解决方法:

  • 开启lowvram模式
  • 减小batch_size到1
  • 开启gradient_checkpointing
  • 降低分辨率
  • 使用fp8_base(可能影响质量)

Q3: 训练速度很慢怎么办?

A: 加速方法:

  • 开启xformers优化
  • 开启cache_latents
  • 增大batch_size(如果显存够用)
  • 使用SSD硬盘
  • 关闭不必要的采样生成

Q4: 生成的样图是黑色的?

A: 解决方法:

  • 开启no_half_vae
  • 检查VAE设置
  • 确保基础模型正确加载
  • 检查sample_prompt是否正确

Q5: 找不到训练好的LoRA文件?

A: 查找位置:

  • 在ComfyUI的output文件夹下的FL_train_workspaces目录
  • 每个项目有自己的文件夹
  • LoRA文件在output子文件夹里
  • 文件名包含轮数信息

Q6: 如何判断训练是否成功?

A: 判断标准:

  • 训练过程没有报错
  • 生成的样图质量逐渐提高
  • Loss值逐渐下降并趋于稳定
  • 最终生成的图片符合预期效果

Q7: 可以中断训练吗?

A: 可以的:

  • 训练会定期保存检查点
  • 可以从任意保存的轮数继续训练
  • 使用base_lora参数选择继续的起点

6. 高级技巧和扩展

6.1 链式训练技巧

这个插件支持链式训练,你可以:

  • 先训练一个基础LoRA
  • 然后在这个基础上继续训练
  • 逐步优化和改进效果
  • 针对不同阶段使用不同的参数

6.2 多阶段训练策略

阶段一:基础训练

  • 使用较低的学习率
  • 训练更多轮数
  • 建立基础特征

阶段二:精细调优

  • 使用更高的学习率
  • 减少训练轮数
  • 针对特定细节优化

6.3 数据增强技巧

  • 使用shuffle_caption增加随机性
  • 适当的noise_offset提高泛化能力
  • 合理设置重复次数平衡数据

6.4 质量控制建议

  • 定期检查生成的样图
  • 根据效果调整参数
  • 保存多个版本进行对比
  • 记录最佳参数组合

7. 总结

这个FL-Trainer插件是一个功能强大的LoRA训练工具集,包含了从简单一键训练到专业级精细控制的完整解决方案。

插件特点总结:

  • ✅ 完整性强: 7个核心节点覆盖训练全流程
  • ✅ 易用性好: 有简单的一键训练,也有专业的详细设置
  • ✅ 功能丰富: 支持数据加载、配置、训练、保存等全套功能
  • ✅ 界面美观: 自带动画效果和统一的视觉风格
  • ✅ 扩展性强: 支持链式训练和多阶段优化
  • ✅ 兼容性好: 支持SD1.5和SDXL两种模型

适用人群:

  • 新手用户: 使用FL Kohya Easy Train一键训练
  • 进阶用户: 使用完整的节点链进行精细控制
  • 专业用户: 利用高级参数和链式训练优化效果

无论你是刚接触LoRA训练的新手,还是想要精细控制的专业用户,这个插件都能满足你的需求。记住,好的训练数据是成功的关键,合适的参数设置是效果的保证!

标签: #插件 2338
相关文章

ComfyUI错误修复插件详解:轻松解决常见问题 2025-07-10 18:25

ComfyUI-CustomMenu插件使用教程:高效自定义工作流指南 2025-07-10 17:50

ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44

ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com

ComfyUI WAN 2.2视频插件教程:万相AI提示词全攻略 2025-07-31 11:47

ComfyUI WAN 2.2视频插件教程:万相AI提示词实战指南 2025-07-29 20:10

ComfyUI HeyGem数字人插件教程:零基础快速精通指南 2025-07-22 14:10

目录

从节点基础到高阶工作流,我们为你绘制最清晰的 ComfyUI 学习路径。告别困惑,让每一次连接都充满创造的魔力,轻松驾驭 AI 艺术的无限可能。

  • 微信
  • B站
  • GitHub
Copyright © 2025 AIX All Rights Reserved. Powered by AIX.
隐私政策
津ICP备2024019312号