핵심 요약
텍스트-이미지 확산 모델을 인간의 선호도에 맞추는 강화 학습 과정에서 대규모 샘플 생성(Rollout)은 막대한 비용이 든다. 이 논문은 저정밀도 FP4 연산으로 후보를 빠르게 탐색하고 고정밀도 BF16으로 핵심 샘플만 다시 생성해 학습 효율과 품질을 동시에 잡는 새로운 패러다임을 제시한다.
왜 중요한가
텍스트-이미지 확산 모델을 인간의 선호도에 맞추는 강화 학습 과정에서 대규모 샘플 생성(Rollout)은 막대한 비용이 든다. 이 논문은 저정밀도 FP4 연산으로 후보를 빠르게 탐색하고 고정밀도 BF16으로 핵심 샘플만 다시 생성해 학습 효율과 품질을 동시에 잡는 새로운 패러다임을 제시한다.
핵심 기여
Sol-RL: 2단계 확산 강화 학습 프레임워크
후보 샘플 탐색(Exploration)과 정책 최적화(Optimization)를 구조적으로 분리하여, FP4의 높은 처리량과 BF16의 학습 안정성을 결합한 새로운 강화 학습 파이프라인을 구축했다.
FP4 기반의 고속 롤아웃 스케일링
NVIDIA Blackwell 아키텍처의 NVFP4 연산을 활용해 롤아웃 단계를 가속화하고, 더 큰 후보군(Candidate Pool)을 확보함으로써 강화 학습의 탐색 범위를 획기적으로 넓혔다.
대조적 샘플 선택 및 재생성 메커니즘
FP4로 생성된 샘플들이 BF16 샘플과 높은 순위 상관관계(Ranking Consistency)를 가진다는 점을 이용해, 보상 점수가 가장 높거나 낮은 핵심 샘플만 BF16으로 재생성하여 학습에 사용한다.
다양한 파운데이션 모델에서의 성능 검증
FLUX.1, SD3.5-Large, SANA 등 최신 확산 모델에서 기존 방법 대비 최대 4.64배의 수렴 속도 향상과 더 높은 정렬 성능을 입증했다.
핵심 아이디어 이해하기
확산 모델의 강화 학습은 모델이 생성한 여러 이미지 중 좋은 것을 골라 학습하는 과정을 반복한다. 이때 더 좋은 이미지를 찾으려면 한 번에 수백 장의 이미지를 뽑아봐야(Rollout Scaling) 하는데, FLUX.1 같은 거대 모델에서는 이 과정이 너무 느려 학습의 병목 현상이 된다.
이 문제를 해결하기 위해 연구진은 '대충 빠르게 훑어보고 중요한 것만 제대로 다시 보기' 전략을 취한다. 4비트 부동소수점(FP4)이라는 매우 낮은 정밀도를 사용하면 연산 속도는 4배 빨라지지만 이미지 품질은 떨어진다. 하지만 연구진은 FP4로 만든 '못생긴 이미지'라도 그들 사이의 상대적인 등수(Ranking)는 고정밀도 이미지와 거의 일치한다는 사실을 발견했다.
결국 FP4로 96장의 후보를 순식간에 뽑아 등수를 매긴 뒤, 그중 가장 점수가 높은 것과 낮은 것 24장만 골라낸다. 이 24장만 원래의 고정밀도(BF16)로 다시 깨끗하게 생성하여 학습에 사용함으로써, 전체 연산량은 줄이면서도 대규모 샘플링이 주는 학습 효과는 그대로 누릴 수 있게 된다.
관련 Figure

FP4로 생성된 이미지는 세부 디테일에서 약간의 왜곡이 있으나, 전체적인 구도와 의미적 구조는 BF16과 매우 유사함을 보여준다. 이는 FP4가 보상 순위 예측을 위한 프록시로 적합하다는 근거가 된다.
NVFP4와 BF16으로 생성된 이미지의 시각적 비교
방법론
Sol-RL은 크게 두 단계의 파이프라인으로 구성된다. 첫 번째 단계인 'FP4 Exploration'에서는 NVIDIA Transformer Engine을 통해 모델 가중치를 NVFP4로 양자화하고, 단 6단계의 적은 추론 스텝으로 96개의 후보 샘플을 생성한다. 이때 생성된 샘플들의 보상 점수를 계산하여 상위 K/2개와 하위 K/2개의 노이즈 시드(Seed)를 추출한다.
두 번째 단계인 'BF16 Re-generation'에서는 선택된 K개의 시드만을 사용하여 BF16 정밀도와 표준 추론 스텝(10단계 이상)으로 고품질 이미지를 재생성한다. 이후 DiffusionNFT 또는 GRPO 목적 함수를 사용하여 정책 네트워크를 업데이트한다. 업데이트된 가중치는 다시 NVFP4로 양자화되어 다음 반복(Iteration)의 탐색 단계에 투입된다.
수학적으로는 FP4 양자화 오차를 유계 섭동(Bounded Perturbation)으로 정의하고, 극값 이론(Extreme Value Theory)을 통해 샘플링 규모 N이 커질수록 FP4 탐색으로 얻는 이득이 양자화 노이즈로 인한 손실을 압도함을 증명했다. 구체적으로 기대 보상 범위 E[W]가 2σ√(2 log N) - 4Δ 이상임을 보여, N을 늘릴수록 강력한 학습 신호를 확보할 수 있음을 이론적으로 뒷받침했다.
관련 Figure

(a) FP4 탐색을 통해 많은 후보를 뽑고, (b) 그중 대조적인 샘플만 BF16으로 재생성하여, (c) GRPO 학습을 진행하는 구조를 명확히 보여준다. 나이브 스케일링 대비 2.4배의 속도 향상을 시각화했다.
Sol-RL의 2단계 분리형 강화 학습 파이프라인 다이어그램
주요 결과
FLUX.1 모델 실험에서 Sol-RL은 BF16 기반의 나이브 스케일링 대비 롤아웃 시간을 2.33배 단축했으며, 전체 학습 시간은 1.62배 가속화했다. SD3.5-Large에서는 롤아웃 2.41배, 전체 시간 1.61배의 가속을 달성했다. 특히 동일한 GPU 시간 예산 내에서 DiffusionNFT 대비 ImageReward 점수 수렴 속도가 최대 4.64배 빨랐다.
정성적 평가에서도 Sol-RL로 학습된 모델은 프롬프트에 대한 의미론적 정렬(Semantic Alignment)이 더 뛰어났으며, 세부 묘사와 예술적 일관성 측면에서 베이스 모델 및 기존 강화 학습 방법론들을 압도했다. Ablation Study 결과, FP4 탐색 스텝을 6단계로 설정했을 때 보상 순위의 신뢰도가 포화 상태에 도달하여 효율성이 극대화됨을 확인했다.
관련 Figure

SANA, FLUX.1, SD3.5 Large 모델 모두에서 Sol-RL이 기존 DiffusionNFT보다 훨씬 빠르게 높은 보상 점수에 도달함을 보여준다. 특히 SD3.5 Large에서는 4.64배의 압도적인 가속 성능을 확인할 수 있다.
Sol-RL을 통한 이미지 품질 개선 사례와 모델별 학습 수렴 곡선 그래프

CLIPScore, HPSv2, PickScore 등 모든 주요 지표에서 Sol-RL이 일관되게 더 높은 성능 한계치(Ceiling)를 달성하며 더 빠르게 수렴함을 입증한다.
다양한 파운데이션 모델과 보상 지표에 따른 Sol-RL과 DiffusionNFT의 성능 비교 그래프
기술 상세
Sol-RL은 알고리즘과 하드웨어의 시너지를 극대화한 설계가 특징이다. NVFP4(NVIDIA 4-bit Floating Point) 포맷을 사용하여 BF16 대비 4배 높은 TFLOPs 처리량을 확보했다. 특히 탐색 단계에서 ODE Solver의 스텝 수를 줄여도 초기 노이즈가 전체적인 구조와 보상 수준을 결정한다는 '결정론적 샘플링의 특성'을 활용해 탐색 효율을 높였다.
학습 안정성을 위해 정책 업데이트는 오직 BF16 재생성 샘플에서만 수행함으로써, 저정밀도 샘플이 직접 그래디언트에 노출될 때 발생하는 분포 편향(Distribution Shift) 문제를 원천 차단했다. 또한 LoRA(rank=32)를 적용해 파라미터 효율성을 높였으며, 업데이트된 가중치를 실시간으로 재양자화하여 컴파일 오버헤드 없이 다음 롤아웃에 즉시 반영하는 최적화된 루프를 구현했다.
한계점
FP4 탐색의 신뢰도는 ODE Solver의 결정론적 특성에 의존하므로, 확률적 샘플링(SDE) 비중이 높은 환경에서는 순위 보존 능력이 저하될 가능성이 있다. 또한 NVFP4 하드웨어 가속이 지원되지 않는 구형 GPU 아키텍처에서는 본 논문에서 제시한 수준의 가속 효과를 기대하기 어렵다.
실무 활용
NVIDIA Blackwell(B200) 등 최신 GPU 하드웨어의 FP4 가속 기능을 활용하여 대규모 확산 모델의 미세 조정 비용을 획기적으로 줄일 수 있는 실전 기술이다.
- FLUX.1 또는 SD3.5와 같은 거대 확산 모델을 특정 화풍이나 인간 선호도에 맞게 빠르게 정렬(Alignment)할 때
- 제한된 컴퓨팅 자원으로 수만 개 이상의 프롬프트에 대해 강화 학습 기반 포스트 트레이닝을 수행해야 하는 경우
- 고해상도 이미지 생성 모델의 추론 속도와 학습 효율을 동시에 개선하고자 하는 MLOps 파이프라인
코드 공개 여부: 비공개
키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.