Nunchaku

admin2025-09-0213

ComfyUI 的 Nunchaku 插件是一个由 MIT Han Lab 开发的高性能推理引擎,主要用于优化生成式模型(如 Stable Diffusion)的推理速度和显存占用。

特点

  • 显存占用低:跑 Flux 模型时让中端显卡用户也能更流畅地运行模型。

  • 出图速度快:推理速度相比 16 位模型可提升 8.7 倍。

  • 兼容性好:支持 Flux 、千问、Redux、Lora、ControlNet 及多显卡架构等。

  • 生成质量高:通过低秩分解和核融合技术,实现无损生成,4 位量化模型生成质量与原始模型几乎无差异。

下载地址

项目地址:https://github.com/nunchaku-tech/nunchaku

插件地址:https://github.com/nunchaku-tech/ComfyUI-nunchaku

模型地址:https://modelscope.cn/organization/nunchaku-tech

轮子地址:https://github.com/nunchaku-tech/nunchaku/releases

模型和轮子说明

svdq-fp4_r128-qwen-image-lightningv1.0-4steps.safetensors

  • svdq:使用SVDQuant 技术优化

  • fp4:适合50系显卡使用

  • int4:适合其他显卡使用

  • r128和r32:压缩程度,显存低使用r32

  • qwen-image:指哪种(这里是千问)模型的 Nunchaku 加速

  • lightningv1.0:步数加速方法

  • 4steps:4步加速,生图是步数选4

nunchaku-1.0.0.dev20250902+torch2.7-cp311-cp311-win_amd64

  • torch2.7:表示只适合torch版本为2.7环境使用这个轮子

  • cp311:表示只适合python版本为3.11的环境使用这个轮子

  • win_amd64:表示只能用在Windows的电脑环境上

安装方法

  1. 用manger管理器或者集成包管理器下载 ComfyUI-nunchaku 插件。

  2. 启动comfyui,打开一个空白的工作流,用来安装轮子。

  3. 使用“Nunchaku Installer”节点,再拉出一个“预览文本”节点。

  4. 选择好“源”“版本”“轮子版本”,然后点击执行就能自动安装好。

  5. 下载合适的模型放在unet目录。

节点列表

  • Nunchaku Installer

  • Nunchaku Model Merger

  • Nunchaku FLUX DIT Loader

  • Nunchaku FLUX LORA Stack

  • Nunchaku PuLID Loader V2

  • Nunchaku FLUX LORA Loader

  • Nunchaku IP-Adapter Loader

  • Nunchaku FLUX PuLID Apply V2

  • Nunchaku Qwen-Image DiT Loader

  • Nunchaku FLUX IP-Adapter Apply

  • Nunchaku Text Encoder Loader V2

  • Nunchaku Pulid Apply (Deprecated)

  • Nunchaku Pulid Loader (Deprecated)

  • Nunchaku Text Encoder Loader (Deprecated)

  • FLUX Depth Preprocessor(Deprecated)



网友评论