핵심 요약
기존의 저자 식별 모델은 글의 스타일이 아닌 주제(내용)를 저자의 특징으로 오인하는 '주제 혼동' 문제로 인해 새로운 도메인에서 성능이 급격히 저하됩니다. 이 논문은 스타일과 내용을 구조적으로 분리하고 그 근거를 자연어로 설명함으로써, AI가 생성한 텍스트 탐지와 저자 식별의 신뢰성을 동시에 확보했습니다.
왜 중요한가
기존의 저자 식별 모델은 글의 스타일이 아닌 주제(내용)를 저자의 특징으로 오인하는 '주제 혼동' 문제로 인해 새로운 도메인에서 성능이 급격히 저하됩니다. 이 논문은 스타일과 내용을 구조적으로 분리하고 그 근거를 자연어로 설명함으로써, AI가 생성한 텍스트 탐지와 저자 식별의 신뢰성을 동시에 확보했습니다.
관련 Figure

모델이 '추리 소설'이라는 내용적 특성을 아서 코난 도일의 스타일로 오인하여 아가사 크리스티의 작품을 코난 도일의 것으로 잘못 예측하는 과정을 설명합니다. 이는 본 논문이 해결하고자 하는 '주제 혼동' 문제를 직관적으로 보여줍니다.
내용과 스타일의 얽힘 현상을 보여주는 예시 다이어그램
핵심 기여
EAVAE 프레임워크 제안
Variational Autoencoder(VAE) 구조를 기반으로 텍스트의 스타일과 내용을 명시적으로 분리하여 학습하는 새로운 저자 식별 프레임워크를 구축했다.
설명 가능한 적대적 판별자 도입
스타일과 내용의 독립성을 강제하는 동시에, 모델이 왜 특정 저자의 스타일로 판단했는지에 대한 자연어 설명을 생성하는 판별자를 설계했다.
하이브리드 프롬프팅 메커니즘
고정된 템플릿과 학습 가능한 소프트 프롬프트를 결합하여 단일 생성기 모델이 문서 재구성(Reconstruction)과 판별(Discrimination) 작업을 동시에 수행하도록 최적화했다.
핵심 아이디어 이해하기
저자 식별의 핵심은 단어의 의미(내용)가 아니라 문장 구조나 단어 선택의 습관(스타일)을 파악하는 것입니다. 기존 모델은 특정 저자가 특정 주제를 자주 다룰 경우, 그 주제 자체를 저자의 스타일로 학습하는 '주제 혼동'에 빠지기 쉽습니다. 이는 마치 추리 소설만 쓴 작가의 문체를 학습하는 대신 '탐정'이라는 단어가 나오면 무조건 그 작가라고 판단하는 것과 같습니다.
EAVAE는 이를 해결하기 위해 텍스트를 스타일 벡터와 내용 벡터라는 두 개의 독립된 공간으로 투영합니다. VAE의 잠재 공간(Latent Space) 개념을 활용하여, 스타일 인코더는 저자의 고유한 지문을 추출하고 내용 인코더는 글의 주제 정보만을 담도록 설계했습니다. 두 벡터가 서로 섞이지 않도록 적대적 학습(Adversarial Learning)을 적용하여 스타일 정보에는 내용이, 내용 정보에는 스타일이 남지 않도록 강제합니다.
결과적으로 모델은 내용에 상관없이 저자 고유의 스타일만을 정교하게 포착할 수 있게 됩니다. 이는 학습 데이터에 없던 새로운 주제의 글을 접하더라도 저자를 정확히 찾아낼 수 있는 강력한 일반화 성능으로 이어집니다.
방법론
EAVAE는 2단계 학습 전략을 취한다. 첫 번째 단계인 Contrastive Pre-training에서는 LLM 기반 인코더를 사용하여 대규모 저자 데이터셋에서 지도 학습 기반 대조 학습을 수행한다. 이때 BM25 알고리즘을 활용해 내용적으로는 유사하지만 저자가 다른 '하드 네거티브' 샘플을 추출하여 모델이 미세한 스타일 차이를 구분하도록 훈련한다.
두 번째 단계는 VAE 기반의 미세 조정이다. 입력 문서 d에 대해 스타일 인코더 Es와 내용 인코더 Ec가 각각 평균(μ)과 표준편차(σ)를 출력하고, 이를 통해 잠재 변수 zs와 zc를 샘플링한다. [입력 d → 인코더 연산 → μ, σ 산출 → 가우시안 분포 샘플링 → zs, zc 생성] 과정을 거치며 스타일과 내용이 분리된 벡터를 얻는다.
분리된 벡터의 독립성을 보장하기 위해 설명 가능한 판별자 Gexpl을 도입한다. 판별자는 두 스타일 벡터 (z_s^i, z_s^j)가 같은 저자인지 판별함과 동시에 그 근거를 자연어로 생성한다. 전체 손실 함수는 재구성 손실(Lvae)과 판별 손실(Ldis)의 가중합인 LEAVAE = Lvae + λdisLdis로 정의되며, 이를 통해 스타일 보존과 내용 분리를 동시에 달성한다.
관련 Figure

스타일 인코더와 내용 인코더가 분리되어 있으며, 각각의 잠재 변수가 재구성기 및 판별자로 전달되는 흐름을 보여줍니다. 특히 스타일/내용 판별자가 각각의 손실 함수(L_dis)를 통해 독립성을 강제하는 구조가 핵심입니다.
EAVAE의 전체 아키텍처 구조도
주요 결과
Amazon Reviews 데이터셋에서 97.0%의 MRR과 99.0%의 Recall@8을 기록하며 기존 SOTA 모델인 LUAR 대비 성능을 크게 향상시켰다. 특히 도메인 간 전이가 중요한 HRS 데이터셋에서는 이전 최고 기록 대비 MRR이 10.7포인트 상승하는 압도적인 결과를 보였다.
AI 생성 텍스트 탐지 작업인 M4 벤치마크에서도 뛰어난 성능을 입증했다. Single-target 탐지에서 평균 65.7%의 pAUC@1을 달성했으며, 별도의 태스크 특화 미세 조정 없이도 다양한 LLM(ChatGPT, Llama 등)이 생성한 텍스트를 효과적으로 구분해내는 일반화 능력을 확인했다.
Ablation Study를 통해 스타일-내용 분리 구조를 제거했을 때 성능이 가장 크게 하락(MRR 47.3% → 44.5%)함을 확인하여, 제안한 아키텍처의 구조적 분리 설계가 저자 식별의 핵심 요소임을 증명했다.
기술 상세
EAVAE는 스타일과 내용의 독립성 가정을 q(zs, zc|d) = q(zs|d)q(zc|d)로 공식화하여 아키텍처 수준에서 분리를 구현했다. 스타일 인코더는 LLM의 양방향 어텐션 메커니즘을 활용하여 문맥의 전후 관계를 모두 파악하며, 이는 기존 디코더 전용 모델의 단방향 제약을 극복한다.
판별자 학습을 위해 QwQ-32B 모델을 사용하여 132,000개의 문서 쌍에 대한 스타일 및 내용 차이 설명을 생성하여 학습 데이터로 활용했다. 이는 단순 이진 분류를 넘어 모델이 스타일적 특징(예: 구어체 사용, 특정 문장 구조 반복)을 명시적으로 학습하게 만드는 효과를 준다.
구현 측면에서는 Qwen2-1.5B를 백본으로 사용하고 LoRA(rank=16)를 적용하여 파라미터 효율성을 높였다. VAE의 KL 발산 항에 대한 하이퍼파라미터 βs, βc를 0.1로 설정하여 재구성 품질과 잠재 공간의 정규화 사이의 균형을 맞추었다.
한계점
설명 가능한 판별자가 생성하는 자연어 설명의 품질과 해석 가능성이 기반이 되는 언어 모델의 성능에 의존한다는 한계가 있다. 또한 현재는 텍스트 데이터에 국한되어 있어, 소스 코드나 멀티모달 데이터에 대한 저자 식별로의 확장이 향후 과제로 남아있다.
실무 활용
이 연구는 디지털 포렌식, 학술적 부정행위 탐지, 그리고 지식 재산권 보호 분야에서 실질적으로 활용될 수 있습니다.
- 익명 게시글이나 이메일의 문체를 분석하여 실제 작성자 후보군 식별
- 학생이 제출한 과제물이 본인의 평소 문체와 일치하는지 확인하여 대필 또는 AI 생성 여부 판별
- 뉴스 기사나 블로그 포스트의 스타일을 분석하여 특정 저자의 사칭 여부 확인
코드 공개 여부: 공개
코드 저장소 보기키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.