# ComfyUI MuseV Evolved 插件完整教程 ## 1. 插件简介 ComfyUI MuseV Evolved 是一个专门用来给静态图片制作动画效果的神器插件。简单来说,就是把一张普通的照片变成会动的视频! **GitHub原地址:** https://github.com/storyicon/comfyui_musev_evolved 这个插件的强大之处在于: - 可以让任何静态图片动起来 - 基于最新的人工智能技术,效果非常逼真 - 提供了比原版更多的调节选项,让你可以精确控制动画效果 - 就像给照片施了魔法一样,让里面的人物、物体都能自然地动起来 想象一下,你有一张美美的自拍照,通过这个插件,可以让照片里的你眨眼、微笑、甚至轻微摆头,就像活生生的视频一样! ## 2. 如何安装 ### 方法一:通过 ComfyUI Manager 安装(推荐) 1. 打开 ComfyUI Manager 2. 搜索 "MuseV Evolved" 3. 点击安装按钮 4. 重启 ComfyUI ### 方法二:手动安装 1. 打开 ComfyUI 的 `custom_nodes` 文件夹 2. 在命令行中输入:`git clone https://github.com/storyicon/comfyui_musev_evolved.git` 3. 重启 ComfyUI ### 额外准备工作 安装完插件后,还需要下载模型文件: ```bash huggingface-cli download --resume-download TMElyralab/MuseV --local-dir ComfyUI/models/diffusers/TMElyralab/MuseV ``` ## 3. 节点详细解析 ### 3.1 MuseV Evolved 主节点 这是整个插件的核心节点,就像一个魔法师的主要施法工具。它负责把你的静态图片变成动画视频。 #### 3.2 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 输入图片 | image | 图片文件 | - | 要做动画的原始照片 | 输入的静态图像数据 | 连接一个Load Image节点,选择你想要做动画的照片 | | 种子值 | seed | 数字 | 随机 | 控制动画的随机性,像掷骰子 | 随机数生成器的种子 | 用固定数字可以重复同样效果,用-1每次都不同 | | 步数 | steps | 1-50 | 20 | 生成动画的精细程度,越高越细致 | 扩散模型的采样步数 | 20步适合快速预览,30-50步质量更好但更慢 | | 引导强度 | guidance_scale | 1.0-20.0 | 7.5 | 控制AI听你话的程度 | 分类器自由引导的强度 | 7.5比较均衡,太高可能过度,太低可能不够 | | 帧数 | num_frames | 8-32 | 16 | 生成视频有多少帧,越多越流畅 | 输出视频的总帧数 | 16帧够用,32帧更流畅但生成更慢 | | 宽度 | width | 像素 | 512 | 输出视频的宽度,像电视屏幕的宽 | 输出视频的像素宽度 | 512或768比较常用,太大会很慢 | | 高度 | height | 像素 | 512 | 输出视频的高度,像电视屏幕的高 | 输出视频的像素高度 | 保持和宽度一样或按比例调整 | ### 3.3 MuseV 预处理节点 这个节点就像一个图片美容师,在制作动画前先给图片做个"美容"。 #### 3.4 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 输入图片 | image | 图片文件 | - | 需要处理的原始图片 | 待预处理的图像数据 | 连接Load Image节点 | | 裁剪模式 | crop_mode | center/smart | smart | 如何裁剪图片适合动画尺寸 | 图像裁剪的方式 | smart会自动找最重要的部分,center从中心裁剪 | | 缩放模式 | resize_mode | stretch/fit | fit | 改变图片大小的方式 | 图像缩放的方法 | fit保持比例,stretch可能会变形 | | 目标宽度 | target_width | 像素 | 512 | 处理后图片的宽度 | 预处理后的图像宽度 | 和主节点的宽度保持一致 | | 目标高度 | target_height | 像素 | 512 | 处理后图片的高度 | 预处理后的图像高度 | 和主节点的高度保持一致 | ### 3.5 MuseV 后处理节点 这个节点就像一个视频剪辑师,负责把生成的动画进行最后的润色和优化。 #### 3.6 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 输入视频 | video | 视频数据 | - | 从主节点生成的动画视频 | 输入的视频张量数据 | 连接主节点的输出 | | 平滑度 | smoothing | 0.0-1.0 | 0.5 | 让动画更平滑自然 | 时间平滑滤波的强度 | 0.5比较自然,1.0最平滑但可能太慢 | | 锐化强度 | sharpness | 0.0-2.0 | 1.0 | 让画面更清晰 | 图像锐化的程度 | 1.0正常,1.5更清晰,过高会有噪点 | | 对比度 | contrast | 0.5-2.0 | 1.0 | 调节画面的明暗对比 | 图像对比度调整 | 1.0正常,1.2稍微提升对比度 | | 饱和度 | saturation | 0.0-2.0 | 1.0 | 调节颜色的鲜艳程度 | 图像饱和度调整 | 1.0正常,1.2让颜色更鲜艳 | ### 3.7 MuseV 载入器节点 这个节点就像一个模型管家,负责加载和管理AI模型。 #### 3.8 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 模型路径 | model_path | 文件路径 | TMElyralab/MuseV | 指定使用哪个AI模型 | 模型文件的路径 | 使用默认路径即可 | | 精度模式 | precision | fp16/fp32 | fp16 | 计算精度,影响速度和显存 | 浮点数精度设置 | fp16省显存跑得快,fp32质量稍好但慢 | | 设备 | device | cpu/gpu | gpu | 使用CPU还是显卡计算 | 计算设备选择 | 有显卡就选gpu,没有就cpu | | 缓存模式 | cache_mode | auto/manual | auto | 如何管理内存缓存 | 内存缓存策略 | auto让系统自动管理即可 | ### 3.9 MuseV 条件节点 这个节点就像一个导演,告诉AI你想要什么样的动画效果。 #### 3.10 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 文本提示 | text_prompt | 文本 | - | 描述你想要的动画效果 | 文本条件输入 | 写"眨眼"、"微笑"、"点头"等动作描述 | | 反向提示 | negative_prompt | 文本 | - | 描述你不想要的效果 | 负面文本条件 | 写"模糊"、"失真"、"抖动"等不想要的 | | 条件强度 | conditioning_scale | 0.0-2.0 | 1.0 | 文本描述的影响力 | 条件引导的强度 | 1.0正常,1.5让文本描述更有效果 | | 时间权重 | temporal_weight | 0.0-1.0 | 0.8 | 动画的时间连贯性 | 时间一致性权重 | 0.8比较自然,1.0最连贯 | ### 3.11 MuseV 采样器节点 这个节点就像一个画家的画笔,决定了AI如何"画"出动画效果。 #### 3.12 参数详解 | 参数名 (UI显示) | 参数名 (代码里) | 参数值 | 建议值 | 通俗解释 (能干嘛的) | 专业解释 | 怎么用/举个例子 | | :--- | :--- | :--- | :--- | :--- | :--- | :--- | | 采样方法 | sampler_name | euler/ddim/dpm | euler | 选择AI的"画画"方式 | 采样算法选择 | euler速度快质量好,ddim更稳定 | | 调度器 | scheduler | normal/karras | normal | 控制AI的工作节奏 | 噪声调度策略 | normal适合大部分情况 | | 去噪强度 | denoise_strength | 0.0-1.0 | 0.8 | 控制AI改动原图的程度 | 去噪采样强度 | 0.8保持原图特征,1.0变化最大 | | 采样步数 | sampling_steps | 1-50 | 20 | AI"画画"的次数 | 采样迭代次数 | 20步够用,30步质量更好 | ## 4. 使用技巧和建议 ### 4.1 新手快速上手 1. **从简单开始**:先用人像照片试试,效果最明显 2. **保持合理分辨率**:512x512是最稳定的尺寸 3. **适中的帧数**:16帧对新手来说最合适,既有动画效果又不会太慢 ### 4.2 提升效果的小窍门 1. **选择合适的照片**: - 人物占据画面中央的效果最好 - 背景简洁的照片更容易处理 - 避免过于复杂的场景 2. **调节参数的艺术**: - 引导强度7.5是万能数值 - 步数20够用,追求极致可以用30 - 种子值固定可以重复效果 3. **文本提示的写法**: - 用简单的动词:眨眼、微笑、点头 - 避免复杂的句子 - 英文效果通常更好 ### 4.3 常见搭配组合 - **基础组合**:载入器 → 预处理 → 主节点 → 后处理 - **高级组合**:载入器 → 预处理 → 条件节点 → 采样器 → 主节点 → 后处理 ## 5. 常见问题解答 ### Q1: 为什么我的动画效果不明显? **A**: 可能是以下原因: - 引导强度太低,试试调到10-15 - 文本提示不够明确,试试写具体的动作 - 原图人物太小,试试用人物更大的照片 ### Q2: 生成速度很慢怎么办? **A**: 可以这样优化: - 减少帧数到8-12帧 - 降低分辨率到256x256先试试 - 使用fp16精度模式 - 减少采样步数到15步 ### Q3: 生成的视频有闪烁怎么办? **A**: 试试这些方法: - 增加时间权重到0.9 - 使用后处理节点的平滑功能 - 降低去噪强度到0.6 ### Q4: 为什么有时候人物会变形? **A**: 这通常是因为: - 引导强度过高,降到5-8试试 - 去噪强度太高,降到0.7以下 - 原图质量不好,试试用更清晰的照片 ### Q5: 如何让动画更自然? **A**: 这些设置会帮助你: - 时间权重设为0.8-0.9 - 使用smart裁剪模式 - 后处理开启平滑功能 - 采样步数至少20步 ## 6. 高级应用技巧 ### 6.1 批量处理技巧 如果你想给多张照片都做动画,可以: 1. 使用相同的种子值保持风格一致 2. 建立一个标准的参数模板 3. 只改变输入图片,其他参数不变 ### 6.2 与其他插件的配合 - **配合ControlNet**:可以更精确控制动画方向 - **配合FaceSwap**:可以先换脸再做动画 - **配合超分插件**:可以先放大图片再做动画 ### 6.3 创意应用场景 - **社交媒体**:给头像做动画效果 - **纪念相册**:让老照片动起来 - **艺术创作**:给画作增加生命力 - **商业展示**:产品图片的动态展示 这个插件就像给静态照片注入了生命力,让每张图片都能讲述自己的故事。记住,最好的参数设置需要通过实践来找到,不要害怕尝试不同的组合!
ComfyUI图像合并插件comfyui-merge使用教程 2025-07-03 22:44 ComfyUI 图像合并插件教程 (comfyui-merge) 1. 插件简介 这是一个专门用来合并图片的 ComfyUI 插件,就像用 PS 把多张图片叠在一起那样。它的特别之处在于你精确控制每张图片的混合方式。 GitHub 地址:https://github.com/LingSss9/com