핵심 요약
생성 AI의 발전 속도를 탐지 기술이 따라가지 못하는 '탐지 지연' 문제를 해결하기 위해 생성과 탐지를 하나의 프레임워크로 통합했다. 생성 모델은 탐지기의 피드백을 받아 더 정교한 이미지를 만들고, 탐지기는 생성 모델의 내부 로직을 학습하여 보이지 않는 위조 흔적을 더 정확히 찾아내는 선순환 구조를 구축했다.
왜 중요한가
생성 AI의 발전 속도를 탐지 기술이 따라가지 못하는 '탐지 지연' 문제를 해결하기 위해 생성과 탐지를 하나의 프레임워크로 통합했다. 생성 모델은 탐지기의 피드백을 받아 더 정교한 이미지를 만들고, 탐지기는 생성 모델의 내부 로직을 학습하여 보이지 않는 위조 흔적을 더 정확히 찾아내는 선순환 구조를 구축했다.
핵심 기여
UniGenDet 통합 프레임워크 제안
이미지 생성과 생성 이미지 탐지라는 상반된 작업을 단일 아키텍처 내에서 동시에 최적화하는 공동 진화형 프레임워크를 설계했다.
Symbiotic Multi-modal Self-Attention (SMSA)
생성 모델의 잠재 특징(Latent features)을 탐지 프로세스에 주입하여 탐지기가 위조의 생성 원리를 이해하고 일반화 성능을 높이도록 유도하는 메커니즘을 도입했다.
Detector-Informed Generative Alignment (DIGA)
학습된 탐지기를 교사(Teacher)로 활용하여 생성 모델이 탐지되기 쉬운 특징을 스스로 수정하고 물리적 일관성을 갖추도록 정렬하는 알고리즘을 개발했다.
SOTA 성능 입증 및 제로샷 일반화
FakeClue 데이터셋에서 98.0%의 정확도를 기록했으며, 학습하지 않은 최신 생성 모델(LlamaGen 등)에 대해서도 98.1%의 평균 정확도로 뛰어난 제로샷 성능을 보였다.
관련 Figure

생성이 탐지를 돕고(a), 탐지 피드백이 생성을 가이드하는(b) 폐쇄 루프 구조를 설명한다. 단일 모델이 이미지 생성, 위조 식별, 위조 해석이라는 세 가지 작업을 동시에 수행함을 명시한다.
UniGenDet의 통합 프레임워크 개념도로 생성과 탐지의 상호작용을 보여준다.
핵심 아이디어 이해하기
기존의 딥페이크 탐지기는 이미 만들어진 가짜 이미지의 픽셀 패턴을 학습하는 사후 대응 방식에 머물러 있었다. 이는 생성 모델이 조금만 바뀌어도 탐지 성능이 급락하는 한계로 이어진다. UniGenDet은 이 문제를 해결하기 위해 '만들 수 없다면 이해한 것이 아니다'라는 철학을 바탕으로 생성과 탐지를 연결한다.
먼저, Transformer의 Self-Attention 구조를 확장한 SMSA를 통해 생성 모델이 이미지를 만들 때 사용하는 임베딩 정보를 탐지기에게 공유한다. 탐지기는 단순히 겉모습만 보는 것이 아니라, 이미지가 어떤 수치적 과정을 거쳐 생성되었는지 '생성 로직'을 함께 참조하여 진짜와 가짜의 경계를 더 명확히 구분한다.
그다음, 고도화된 탐지기의 판단 기준을 다시 생성 모델의 학습 가중치 업데이트에 반영한다. 생성 모델은 탐지기가 잡아내는 미세한 질감 불일치나 조명 오류를 손실 함수(Loss function)로 전달받아, 사람이 보기에도 더 자연스럽고 탐지기조차 구별하기 힘든 고품질 이미지를 생성하도록 진화한다. 결과적으로 두 기능이 서로를 강화하며 기술적 격차를 해소한다.
방법론
UniGenDet은 BAGEL을 기반 모델로 사용하며 2단계 학습 패러다임을 채택한다. 1단계는 GDUF(Generation-Detection Unified Fine-tuning)로, SMSA 모듈을 통해 생성 인코더의 특징과 탐지 인코더의 특징을 결합한다.
SMSA 모듈은 [생성 잠재값 z, 탐지 특징 h_det, 텍스트 임베딩 h_text를 입력으로] → [상호 참조하는 Cross-Attention 연산을 수행해] → [통합된 특징 벡터를 얻고] → [이를 통해 탐지 정확도와 생성 조건의 일관성을 동시에 높인다].
2단계는 DIGA(Detector-Informed Generative Alignment) 과정이다. [실제 이미지 x_GT와 생성 모델의 중간 특징 z_G를 입력으로] → [학습된 탐지기 f_D의 마지막 블록 특징과 코사인 유사도를 계산해] → [LDIGA 손실값을 얻고] → [생성 모델이 실제 이미지의 분포를 탐지기의 관점에서 모방하도록 가중치를 정렬한다].
관련 Figure

탐지기와 생성기가 SMSA를 통해 특징을 공유하며 학습되는 과정을 보여준다. 탐지 결과에 대한 텍스트 설명(Ground Truth Explanation)이 생성되는 메커니즘이 포함되어 있다.
GDUF 파이프라인의 상세 아키텍처와 SMSA 모듈의 작동 방식이다.
주요 결과
FakeClue 데이터셋 실험 결과, UniGenDet은 98.0%의 정확도와 97.7%의 F1 스코어를 달성하며 기존 최강 모델인 Qwen2-VL-72B 대비 정확도를 40.2% 개선했다. 특히 텍스트 기반 설명 능력(ROUGE-L 56.3)에서도 압도적인 성능을 보였다.
제로샷 일반화 성능을 측정하는 ARForensics 벤치마크에서는 LlamaGen, VAR, RAR 등 최신 생성 모델로 만든 이미지에 대해 평균 98.1%의 정확도를 기록했다. 이는 기존 전문 탐지기인 D3QE(82.1%)를 크게 상회하는 수치이다.
이미지 생성 품질 측면에서도 FID 17.5를 기록하여 기본 모델인 BAGEL(22.9)보다 훨씬 사실적인 이미지를 생성함을 입증했다. 이는 탐지기의 피드백이 생성물의 물리적 일관성을 높이는 데 기여했음을 보여준다.
관련 Figure

UniGenDet이 생성한 이미지가 조명, 반사, 질감 면에서 훨씬 더 자연스럽고 실제 사진에 가깝다는 것을 시각적으로 증명한다. 탐지기 기반 최적화가 생성물의 물리적 현실성을 높였음을 보여준다.
기존 모델(BAGEL)과 UniGenDet의 이미지 생성 결과 비교 사진이다.
기술 상세
UniGenDet은 SigLIP2를 이해 인코더로, FLUX VAE를 생성 인코더로 사용하며 Qwen2.5 LLM을 백본으로 공유한다. 아키텍처의 핵심은 SMSA(Symbiotic Multi-modal Self-Attention)로, 레이어마다 생성과 탐지의 특징을 교차 주입하여 상호 의존성을 높였다.
학습 시에는 Flow Matching 목적 함수와 Binary Cross-Entropy 탐지 손실을 결합한 통합 손실 함수를 사용한다. 특히 DIGA 단계에서는 동결된 탐지기를 Authenticity Teacher로 활용하여 생성 모델의 특징 공간을 실제 이미지의 특징 공간으로 강제 정렬(Alignment)시킨다. 이는 GAN의 적대적 학습과 유사해 보이지만, 고차원 특징 공간에서의 직접적인 분포 정렬을 통해 모드 붕괴(Mode collapse)를 방지하고 생성 다양성을 유지한다는 차별점이 있다.
한계점
매우 정교하게 스타일링되거나 전문적으로 후처리된 실제 이미지에 대해 가끔 오탐지(False Positive)가 발생할 수 있다. 또한 매우 복잡한 장면 생성 시 여전히 미세한 질감 불일치가 나타날 수 있어, 향후 더 세밀한 공간 추론 능력을 갖춘 멀티모달 파운데이션 모델과의 결합이 필요하다.
실무 활용
고도화되는 딥페이크 위협에 대응하기 위한 차세대 보안 솔루션으로 활용 가능하다. 생성과 탐지가 통합되어 있어 새로운 생성 기법이 등장해도 빠르게 적응할 수 있는 유연성을 갖추고 있다.
- 소셜 미디어 플랫폼의 실시간 AI 생성 콘텐츠 식별 및 자동 라벨링
- 디지털 포렌식 전문가를 위한 위조 근거(설명문) 생성 도구
- 더 사실적인 그래픽 합성이 필요한 게임 및 영화 산업의 생성 모델 품질 개선
코드 공개 여부: 공개
코드 저장소 보기키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.