简介
发布 v0.3.0 版本! 本次更新新增了对多批次推理的支持,集成了 ControlNet-Union-Pro 2.0 并初步整合了 PuLID。 Nunchaku FLUX 模型作为单个文件加载,升级后的 4位 T5 编码器 在质量上已可媲美 FP8 T5!
官网地址:https://github.com/mit-han-lab/ComfyUI-nunchaku
nunchaku的优势
cache_threshold ,控制First-Block Cache的容差,可以提高生图速度。
attention,
nunchaku-fp16
在不影响精度的情况下再次提高生图速度 1.2倍cpu_offload,减少了GPU内存的使用(让14G显存,可以跑图)
Nunchaku Text Encoder Loader V2, 新CLIP加载器,更加节省内存,awq-ini4-flux-t5xxl 模型
总结
出图质量,速度,相当炸裂... 1秒出图。
极大的减少了,flux模型对显存的依赖,让14G以内的显卡也能跑的动满血模型了。
它让家用级别显卡,达到了,商用的出图质量和速度。
效果演示
常规出图测试 - prompt
a cyberpunk dog holding a neon sign that says "CDC"
图片重构 - 移除图片中的物体
原图 重构
去水印
速度依然起飞... 1-2秒
安装
Nunchaku 需要先安装轮子。
nunchaku-0.3.0+torch2.7-cp312-cp312-win_amd64.whl
切换主分支
cd ComfyUI-nunchaku
git branch -a
git switch main
升级
git pull
安装2个补充库
insightface-0.7.3-cp312-cp312-win_amd64.whl
python -m pip install --use-pep517 facexlib