Flux는 성능이 뛰어난 이미지 생성형 AI이다.
다만 flux 모델의 크기가 flux1-dev 버전인 경우 대략 22G정도 된다.
크기가 크기 때문에 보통의 데스크탑에서는 사실상 돌리기가 어렵다.
그래서 Flux1-dev-fp8 (대략 11G) 처럼 경량화된 버전들이 출시되어 사용되고
있지만 그래도 역시 이미지 한장 뽑는데 30초이상의 시간이 걸린다.
이 글에서 소개할 Flux-GGUF (약 12G) 버전은 크기도 절반이면서 Flux1-dev-fp8
보다 더 적은 시간으로 이미지를 만들어 준다.
1. Flux-GGUF 모델의 특징 및 장점
1-1. 저장공간 및 VRAM 절약: GGUF 양자화 모델은 원래 모델에 비해
훨씬 적은 VRAM을 사용하면서도 성능은 비슷하다. 예를 들어, GGUF Q8
모델은 VRAM 사용량을 절반으로 줄이면서도 원본 모델과 99% 유사한 품질을
제공한다.
1-2. 낮은 사양에서도 실행 가능: GGUF 모델은 양자화를 통해 모델
크기를 줄였기 때문에, GPU 메모리가 부족한 하드웨어에서 실행할 수 있다.
6GB~12GB VRAM을 가진 장비에서도 원활하게 사용할 수 있어, 고성능 GPU가 없는
사용자에게 유리하다.
1-3. 속도 향상: GGUF
모델은 이미지 생성 속도도 빠르다. 특히 Q8과 같은 고비트 모델은
일반적인 모델보다 빠르게 처리할 수 있다.
1-4. 호환성: ComfyUI 및
Forge와 같은 주요 인터페이스에서 GGUF 모델을 지원하므로, 여러 플랫폼에서
쉽게 사용할 수 있다.
2. Flux-GGUF 모델 및 clip 모델 다운
먼저 모델들을 다운로드 한다.
Flux-GGUF 는 ( https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main ) 에서 다운
받으면 되는데 여러가지 모델중에서 그래도 크기가 작지만 성능은 원본에 가장
근접한 모델을 다운 받기를 권장한다. ( 모델 다운로드)
다운된 파일은 Flux 모델이 저장된 폴더 ( .../models/unet ) 에 저장한다.
Flux-GGUF 용 전용 clip 모델은
( https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf/tree/main ) 에서
t5-v1_1-xxl-encoder-Q8_0.gguf 를
다운받는다.
다운된 파일은 ( .../models/clip ) 폴더에 저장한다.
만약 clip 모델을 다운받기 어려우면 기존 Flux의 clip 모델들을 사용하여도 된다.
3. Comfyui에서 사용하기 위한 필수 노드
Flux-GGUF 모델 과 clip 모델을 사용하기 위하여 전용 노드가 필요하다.
필수 nods |
물론 comfyui 는 최신 버전으로 update 를 한 후 재실행 시킨다.
4. Workflow 구성
먼저 Flux-GGUF 와 CLIP 모델을 사용하기 위해 방금 다운로드한 노드를 불러와 설치한다.
Unet Loader 과 DualCLIPLoader (GGUF) 을 사용 |
Unet Loader 에서 flux-dev-Q8_0 선택하고, DualCLIPLoader 에서는 clip_l 과 t5-v1_1-xxl-encoder-Q8 을 선택한다.
아래는 전체 완성된 Workflow 이다.
Workflow |
GGUF 모델을 이용한 이미지 |
5. Flux_GGUF 사용 후 결론
Flux-GGUF 모델을 이용하여 여러장의 이미지를 생성해 보았는데,
첫째 : 이미지 생성속도가 기존 flux1-dev-fp8 보다 빠르다.
둘째 : 이미지의 품질이 전혀 뒷쳐지지 않고 매우 만족스러운 결과물이 만들어진다.
세번째: Lora도 함께 사용해 보았는데 문제없이 잘 작동이 되었다.
물론 controlnet 사용은 사용해 본 후 글을 작성할 예정이다.
이정도면 컴퓨터의 그래픽카드 메모리가 8G 이내 에서도 문제없이 잘 돌아갈 것이다.좋은 이미지 생성 모델이다.
댓글
댓글 쓰기