Nunchaku
ComfyUI 的 Nunchaku 插件是一个由 MIT Han Lab 开发的高性能推理引擎,主要用于优化生成式模型(如 Stable Diffusion)的推理速度和显存占用。
特点
显存占用低:跑 Flux 模型时让中端显卡用户也能更流畅地运行模型。
出图速度快:推理速度相比 16 位模型可提升 8.7 倍。
兼容性好:支持 Flux 、千问、Redux、Lora、ControlNet 及多显卡架构等。
生成质量高:通过低秩分解和核融合技术,实现无损生成,4 位量化模型生成质量与原始模型几乎无差异。
下载地址
项目地址:https://github.com/nunchaku-tech/nunchaku
插件地址:https://github.com/nunchaku-tech/ComfyUI-nunchaku
模型地址:https://modelscope.cn/organization/nunchaku-tech
轮子地址:https://github.com/nunchaku-tech/nunchaku/releases
模型和轮子说明
svdq-fp4_r128-qwen-image-lightningv1.0-4steps.safetensors
svdq:使用SVDQuant 技术优化
fp4:适合50系显卡使用
int4:适合其他显卡使用
r128和r32:压缩程度,显存低使用r32
qwen-image:指哪种(这里是千问)模型的 Nunchaku 加速
lightningv1.0:步数加速方法
4steps:4步加速,生图是步数选4
nunchaku-1.0.0.dev20250902+torch2.7-cp311-cp311-win_amd64
torch2.7:表示只适合torch版本为2.7环境使用这个轮子
cp311:表示只适合python版本为3.11的环境使用这个轮子
win_amd64:表示只能用在Windows的电脑环境上
安装方法
用manger管理器或者集成包管理器下载 ComfyUI-nunchaku 插件。
启动comfyui,打开一个空白的工作流,用来安装轮子。
使用“Nunchaku Installer”节点,再拉出一个“预览文本”节点。
选择好“源”“版本”“轮子版本”,然后点击执行就能自动安装好。
下载合适的模型放在unet目录。
节点列表
Nunchaku Installer
Nunchaku Model Merger
Nunchaku FLUX DIT Loader
Nunchaku FLUX LORA Stack
Nunchaku PuLID Loader V2
Nunchaku FLUX LORA Loader
Nunchaku IP-Adapter Loader
Nunchaku FLUX PuLID Apply V2
Nunchaku Qwen-Image DiT Loader
Nunchaku FLUX IP-Adapter Apply
Nunchaku Text Encoder Loader V2
Nunchaku Pulid Apply (Deprecated)
Nunchaku Pulid Loader (Deprecated)
Nunchaku Text Encoder Loader (Deprecated)
FLUX Depth Preprocessor(Deprecated)