comfyui ltx video gguf workflow

12G显存也能跑 LTX Video!ComfyUI GGUF工作流保姆级部署教程

Spread the love

LTX Video 是目前最强的开源视频生成模型之一,但原版模型对显存的要求让很多 4070 甚至 4080 用户望而却步。 好消息是,通过 GGUF 量化技术,我们可以把显存占用压缩到极限,在 12G-16G 显存的设备上流畅运行(实测3060 12G顺利跑通)。

本文将手把手教你如何从零开始部署这套“平民版” LTX Video 工作流。


🛠️ 第一阶段:环境与插件安装

在下载模型之前,我们需要先给 ComfyUI 安装必要的“驱动”插件。

1. 启动 ComfyUI Manager

打开你的 ComfyUI,点击右侧菜单栏的 “Manager” (管理器) 按钮。

2. 安装核心节点

在 Manager 中点击 “Install Custom Nodes”,搜索并安装以下两个插件:

  • 搜索关键词:GGUF
    • 插件名: ComfyUI-GGUF
    • 作者: City96
    • 作用:这是核心插件,让 ComfyUI 能识别 .gguf 格式的轻量化模型。
  • 搜索关键词:KJNodes
    • 插件名: ComfyUI-KJNodes
    • 作者: Lijai
    • 作用:提供 LTX Video 所需的 Audio/Video VAE 辅助节点。

⚠️ 重要: 安装完成后,必须点击 “Restart” 重启 ComfyUI 才能生效。【LTX-2 开源项目地址

comfyui-1024x579 12G显存也能跑 LTX Video!ComfyUI GGUF工作流保姆级部署教程

📂 第二阶段:模型下载与文件归位

这是最容易出错的一步。请严格按照以下清单下载,并放入准确的文件夹中。 (如果文件夹不存在,请手动新建)

1. 核心模型下载清单

所有模型均可在 HuggingFace 下载(LTX-2 HuggingFace 存储库)。

同时模型和工作流文件我们会打包到网盘,方便网络不好的小伙伴下载。

模型类型文件名 (推荐)存放路径 (ComfyUI目录下)备注
Unet (主模型)ltx-2-19b-distilled_Q4_K_M.ggufmodels/unet/Q4 版本画质最好,Q2 版本速度最快。
Text Encodergemma-3-12b-it-Q2_K.ggufmodels/clip/关键文件! 必须用 Q2_K 版本 (约4GB),原版会爆显存。
Connectorltx-2-19b-embeddings_connector_dev_bf16.safetensorsmodels/clip/注意:工作流通常需要 dev 版。如果你只有 distill 版,后面需要手动修改节点。
VAELTX2_video_vae_bf16.safetensorsmodels/vae/视频解码器,决定画面色彩和清晰度。

2. 目录结构示意图

为了防止放错,你的文件夹结构应该长这样:

ComfyUI/
└── models/
    ├── unet/
    │   └── ltx-2-19b-distilled_Q4_K_M.gguf  <-- 主模型放这里
    ├── clip/
    │   ├── gemma-3-12b-it-Q2_K.gguf         <-- 语言模型放这里
    │   └── ltx-2-19b...connector...safetensors <-- 连接器放这里
    └── vae/
        └── LTX2_video_vae_bf16.safetensors  <-- VAE放这里

🔌 第三阶段:工作流搭建 (手术式修改)

如果你下载了网上的标准 LTX 工作流,打开后大概率会报错。我们需要进行一次“心脏置换手术”,把原版加载器换成 GGUF 加载器。

1. 移除旧节点

在工作流画面中,找到红色的报错节点 DualCLIPLoader,直接按 Delete 键删除。

2. 添加新节点

  • 在空白处双击鼠标,搜索输入:DualCLIP
  • 选择出现的 DualCLIPLoader (GGUF) 节点(注意名字后缀)。

3. 正确设置节点参数 (关键!)

新节点添加后,请按图设置:

  • clip_name1: 选择 gemma-3-12b-it-Q2_K.gguf
  • clip_name2: 选择 ltx-2...connector...safetensors
  • type: 必须手动选为 ltxv
    • 注意:默认可能是 sd3 或其他,不改的话生成的视频全是雪花噪点!

4. 重新连线

  • 输出端:将 DualCLIPLoader (GGUF) 右侧黄色的 CLIP 端口拉出线条。
  • 输入端:分别连接到 正向提示词 (Positive Prompt)负向提示词 (Negative Prompt) 左侧的 clip 端口。
DualCLIPLoader-GGUF 12G显存也能跑 LTX Video!ComfyUI GGUF工作流保姆级部署教程

🎬 第四阶段:避坑与参数设置

跑通工作流的最后一步,是设置合理的视频参数。

1. 帧数设置 (Length)

LTX 模型对帧数敏感,必须符合公式:(8 × N) + 1

  • 初次测试(推荐): 设置为 97 (约4秒)。
  • 进阶长度: 设置为 129 (约5秒)。
  • 硬件极限: 设置为 193 (约8秒)。
    • 警告:不要随意设置如 243 帧,这会导致 16G 显存瞬间溢出,系统卡死。
Length 12G显存也能跑 LTX Video!ComfyUI GGUF工作流保姆级部署教程

2. 关于“假死”与红字报错

当你点击生成后,可能会看到:

  • CMD 窗口提示 loaded partially... offloaded to RAM:这是正常的,说明显存不够用了,系统在用内存硬扛。
  • CMD 出现 ConnectionResetError不要慌! 只要看到最后显示 Prompt executed,说明视频已经生成好了。去 Output 文件夹拿视频即可。
CMD-窗口提示-1024x336 12G显存也能跑 LTX Video!ComfyUI GGUF工作流保姆级部署教程

❓ 常见问题解答 (FAQ)

Q1: 为什么我的 DualCLIPLoader 节点报错显示红色?

A: 这通常是因为你选择了错误的文件版本或节点类型。

  1. 确保你使用的是 DualCLIPLoader (GGUF) 节点,而不是原版的 Loader。
  2. 检查 clip_name2 是否加载了 ltx-2-19b...connector 文件。
  3. 最重要的一点: 节点的 type 选项必须手动切换为 ltxv。如果选成 sd3 或其他模式,节点会报错或生成噪点。

Q2: 12GB 显存显卡(如 3060/4070)最大能跑多少帧?

A: 在使用 GGUF 量化模型(Q4 Unet + Q2 Text Encoder)的情况下:

  • 推荐设置: 97 帧(约 4 秒)。这是最稳定且生成速度较快的档位。
  • 极限设置: 129 帧(约 5.3 秒)。可能会触发共享显存(使用内存),导致生成时间变长。
  • 不推荐: 超过 161 帧。此时极其容易爆显存,导致系统卡顿或 ComfyUI 无响应。

Q3: 为什么后台出现 ConnectionResetError: [WinError 10054] 报错?

A: 别担心,这不代表生成失败。 当生成视频(特别是解码 VAE 阶段)时,显卡和 CPU 处于满载状态,ComfyUI 后台忙于计算,无法及时响应浏览器的“心跳包”请求,导致网页认为连接断开了。只要后台 CMD 窗口最后显示 Prompt executed in ... seconds,说明视频已经成功生成并保存到了 output 文件夹。

Q4: 生成的视频全是雪花噪点或者灰蒙蒙的,怎么回事?

A: 这通常是两个原因造成的:

  1. 节点 Type 选错: 请再次检查 DualCLIPLoader (GGUF) 的 type 是否选为了 ltxv
  2. 缺少采样修正: 部分 GGUF 模型需要特定的采样器设置。如果你遇到噪点,尝试在 Unet Loader 后连接一个 ModelSamplingSD3 节点,或者尝试将采样器(Sampler)的 scheduler 改为 sgm_uniformsimple 进行测试。

Q5: 我可以用这个工作流跑 Image-to-Video (图生视频) 吗?

A: 本教程主要针对 Text-to-Video (文生视频)。 LTX Video 的图生视频功能需要额外的图像输入节点和 Conditioning 处理。虽然 GGUF 模型本身支持,但工作流连线会有所不同。建议先跑通文生视频,熟悉性能极限后再尝试加入图像输入。

Q6: 为什么我的生成速度特别慢(比如 5-10 分钟)?

A: 观察一下控制台是否有 loaded partially... offloaded to RAM 的提示。 如果出现这句话,说明你的物理显存(VRAM)用光了,系统正在使用系统内存(RAM)进行计算。内存读写速度远低于显存,因此速度会变慢 5-10 倍。解决方法是:

  1. 降低视频帧数(例如从 129 降到 97)。
  2. 关闭或移除 Upscale (放大) 流程,只生成原生分辨率(768×512 或类似)。

Q7: 我需要下载多大的内存(RAM)才够用?

A: 推荐 32GB 或以上。 虽然 GGUF 极大地降低了显存需求,但模型在加载和卸载过程中依然需要占用大量系统内存。如果你的内存只有 16GB,运行 LTX Video 可能会非常吃力,甚至导致系统死机。

结语

通过以上步骤,你已经成功部署了一套低显存友好的 LTX Video 工作流。GGUF 方案虽然在生成速度上略慢于原版(因为涉及内存交换),但它让普通显卡也能跑出电影级的 AI 视频,绝对值得一试。

Leave a Reply