0x00 來由
上一篇(http://www.reibang.com/p/4c04fe70e0e3) 介紹的是Flux 官方提供的模型导狡,比較吃顯卡寒屯、內(nèi)存。
于是乎就有這片低配要求的 nf4模式烹看,直接放在checkpoints, 且自帶 clip,vae
名稱來由:
- NF4: Next-Gen Flux Model, 速度提升4倍型酥,顯存要求低4倍
- GGUF: GPT-Generated Unified Format
0x01 NF4 模型下載
這里使用的是:Flux.1-Dev BNB NF4 v2:
下載地址:
https://civitai.com/models/638187?modelVersionId=721627
保存到 model/checkpoints下:
0x02 GGUF 下載
來這里:
https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main
下載規(guī)則:文件大小比顯存略小即可躬柬。
比如我的顯存12G,選擇最接近的 9.86GB。
gguf 保存到 D:\ComfyUI\models\unet
0x03 Clip 文件下載
參考上一篇: http://www.reibang.com/p/4c04fe70e0e3
0x04 工具安裝節(jié)點: ComfyUI-GGUF
通過節(jié)點安裝器祥得,安裝節(jié)點 ComfyUI-GGUF:
0x05 手動安裝節(jié)點: ComfyUI-NF4
目前的節(jié)點管理器中沒有NF4,所以需要我們手動下載
cd custom_nodes
git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
cd ComfyUI_bitsandbytes_NF4
pip install -r ./requirements.txt
0x06 工具安裝節(jié)點: x-flux-comfyui
0x06 安裝 Lora
打開這里:https://huggingface.co/XLabs-AI/flux-lora-collection/tree/main
文件列表中兔沃,帶 comfy_converted 的文件,可以直接放到 models/lora目錄中
下載黑悟空Lora: https://civitai.com/models/665047/wukong-flux-v1
0x07 安裝 Controlnet
下載三個 Controlnet 放到 D:\ComfyUI\models\xlabs\controlnet 下面
來源:
https://huggingface.co/XLabs-AI/flux-controlnet-hed-v3/tree/main
https://huggingface.co/XLabs-AI/flux-controlnet-canny-v3/tree/main
https://huggingface.co/XLabs-AI/flux-controlnet-depth-v3/tree/main
0x08 下載放大器
來源:https://huggingface.co/lokCX/4x-Ultrasharp/blob/main/4x-UltraSharp.pth
放到這里:D:\ComfyUI\models\upscale_models
0x09 一些參數(shù):
-
guidance:
- 寫實: 2~3
-
卡通:3~4.5
cfg
使用Flux模型時级及,直接設(shè)置為1
0x10 跑一個例子:
效果不是太好乒疏,重在參與,哈哈饮焦,收工