핵심 요약
LLM 간의 긴 대화 시뮬레이션에서 발생하는 페르소나 일관성 결여와 상대방의 말투를 무의식적으로 따라 하는 에코잉(Echoing) 문제를 해결하는 프롬프트 기반 프레임워크를 제안합니다. 별도의 모델 학습 없이도 대화 기록을 에이전트 관점으로 재투영하는 기법만으로 장기 대화의 안정성을 획기적으로 높여 고품질 합성 데이터 생성을 가능하게 합니다.
왜 중요한가
LLM 간의 긴 대화 시뮬레이션에서 발생하는 페르소나 일관성 결여와 상대방의 말투를 무의식적으로 따라 하는 에코잉(Echoing) 문제를 해결하는 프롬프트 기반 프레임워크를 제안합니다. 별도의 모델 학습 없이도 대화 기록을 에이전트 관점으로 재투영하는 기법만으로 장기 대화의 안정성을 획기적으로 높여 고품질 합성 데이터 생성을 가능하게 합니다.
핵심 기여
SPASM 프레임워크 제안
페르소나 생성, 검증, 자연어 정교화, 대화 시뮬레이션 및 종료 감지를 포함하는 모듈형 시뮬레이션 파이프라인을 구축하여 제어 가능한 멀티턴 대화 생성을 지원한다.
Egocentric Context Projection(ECP) 도입
대화 기록을 특정 관점에 치우치지 않은 형태로 저장한 뒤, 생성 직전 각 에이전트의 자기중심적 관점(SELF vs PARTNER)으로 결정론적으로 투영하여 역할 혼동을 방지한다.
대규모 멀티턴 대화 데이터셋 구축
GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus 등 3종의 백본 모델 조합을 통해 4,500개의 페르소나와 45,000개의 대화로 구성된 데이터셋을 생성하고 분석했다.
에코잉 현상의 정량적 제거 입증
인간 평가 결과, ECP 기법 적용 시 기존의 단순 대화 기록 연결 방식에서 빈번하게 나타나던 상대방 역할 복제(Echoing) 현상이 거의 0에 가깝게 제거됨을 확인했다.
핵심 아이디어 이해하기
기존의 LLM 대화 시뮬레이션은 전체 대화 기록을 단순히 텍스트 버퍼로 이어 붙여 모델에게 입력한다. 이 방식은 Transformer 아키텍처가 이전 토큰들의 관계를 계산할 때, '누가 한 말인지'에 대한 상대적 역할 정보를 모호하게 만든다. 특히 모델이 '사용자' 역할을 수행해야 할 때, 대화 기록에 포함된 '어시스턴트'의 말투나 논리를 자신의 것으로 착각하여 흡수하는 현상이 발생한다.
SPASM은 이를 해결하기 위해 대화 기록을 '관점 중립적(Perspective-agnostic)'으로 관리한다. 실제 모델에게 입력을 넣기 직전에만 모든 대화 기록을 '나(SELF)'와 '상대방(PARTNER)'이라는 상대적 레이블로 치환하는 Egocentric Context Projection(ECP) 과정을 거친다. 이는 임베딩 공간에서 자신의 페르소나 벡터가 상대방의 벡터 방향으로 쏠리는 현상을 물리적으로 차단하는 효과를 낸다.
결과적으로 모델은 대화가 길어져도 자신이 '도움을 요청하는 고객'인지 '답변을 주는 상담원'인지 명확히 인지하게 된다. 이는 모델의 가중치를 수정하지 않고도 입력 컨텍스트의 구조화만으로 고차원적인 역할 수행 능력을 복구할 수 있음을 의미한다.
방법론
SPASM 프레임워크는 페르소나 스키마 샘플링, 페르소나 검증(Validator), 자연어 페르소나 제작(Crafter), 클라이언트-응답자 대화 시뮬레이션, 종료 감지(Termination Detector)의 5단계로 구성된다. 페르소나 검증 단계에서는 '18세 학생이 퇴직 연금을 상담하는 경우'와 같은 논리적 모순을 LLM이 사전에 필터링하여 데이터의 품질을 보장한다.
핵심 기법인 Egocentric Context Projection(ECP)은 수식적으로 다음과 같이 동작한다. 전체 대화 기록 H_t가 (발화자 s_k, 내용 c_k)의 쌍으로 주어질 때, 투영 연산자 Ψ_i는 절대적 발화자 ID를 상대적 기술어(SELF, PARTNER)로 매핑한다. [발화자 ID s_k → 상대적 역할 ϕ_i(s_k) → 변환된 레이블] 순으로 연산이 수행되어, 각 에이전트는 항상 자신이 'SELF'로 표시된 일관된 관점의 컨텍스트를 입력받는다.
대화 종료는 Termination Detector가 최근 m개의 대화 턴을 분석하여 결정한다. [최근 대화 텍스트 → 종료 규칙 대조 → 이진 판정] 과정을 통해 감사의 표현이나 작별 인사 등 종료 신호가 감지되면 시뮬레이션을 중단하여 불필요하게 길어지는 대화를 방지한다.
관련 Figure

페르소나 생성, 에코잉 방지를 위한 ECP 기반 대화 시뮬레이션, 그리고 자연스러운 종료 감지까지의 전체 모듈 구조를 시각화한다. 특히 하단의 Egocentric Context Projection이 어떻게 중립적 기록을 각 에이전트 뷰로 변환하는지 명확히 보여준다.
SPASM 프레임워크의 전체 파이프라인을 보여주는 다이어그램.
주요 결과
실험 결과, ECP를 적용한 모델은 단순 연결(CONCAT) 방식 대비 페르소나 이탈(Drift)이 모든 지표에서 유의미하게 낮았다. 특히 감정(Emotion) 관련 이탈 지표에서 GPT-4o-mini 기준 Cohen's d = -0.75의 큰 개선 효과를 보였다. 이는 장기 대화에서도 모델이 초기 설정된 감정 상태를 더 잘 유지함을 의미한다.
에코잉(Echoing) 분석에서는 CONCAT 방식이 모델 조합에 따라 최대 82%의 높은 에코잉 발생률을 보인 반면, ECP 방식은 인간 평가 결과 모든 조합에서 0%의 발생률을 기록하며 해당 결함 모드를 완전히 제거했다. 임베딩 분석을 통한 Silhouette score 측정 결과, 동일 백본 모델끼리 대화할 때 페르소나별 클러스터가 더 명확하게 형성되는 경향을 확인했다.
관련 Figure

관심사, 감정, 동기 등 모든 차원에서 ECP 방식이 CONCAT 방식보다 낮은 이탈률을 유지함을 보여준다. 대화가 진행될수록(턴 수가 늘어날수록) ECP의 안정성 효과가 더 극명하게 나타나는 것을 확인할 수 있다.
대화 턴 수에 따른 페르소나 이탈(Drift) 추이를 CONCAT과 ECP 방식으로 비교한 그래프.

동일한 페르소나로 생성된 대화들이 임베딩 공간에서 얼마나 잘 군집화되는지 보여준다. 백본 모델 조합에 따라 클러스터의 응집도가 달라지며, 특히 응답자(Responder) 모델이 전체적인 임베딩 구조를 지배한다는 사실을 시사한다.
다양한 모델 조합에서 생성된 대화 임베딩의 UMAP 시각화 결과.
기술 상세
SPASM은 대화 기록을 정적인 텍스트 버퍼가 아닌 동적인 관점 투영 대상으로 취급한다. 이는 LLM이 사전 학습 과정에서 'User:'와 'Assistant:'라는 고정된 역할 레이블에 강하게 정렬(Alignment)되어 있다는 점을 역이용한 것이다. 대화 기록 내의 상대방 발화를 'User'로, 자신의 발화를 'Assistant'로 실시간 재라벨링함으로써 모델의 내재된 추론 경로를 최적화한다.
또한 본 연구는 페르소나 일관성을 측정하기 위해 'Persona Probe' 기법을 제안한다. 대화 중간에 모델의 페르소나를 묻는 질문(Qd)을 던지고, 그 답변의 임베딩 벡터와 대화 시작 전의 기준 벡터(A0) 사이의 코사인 거리를 계산하여 이탈 정도를 정량화한다. [질문 Qd 입력 → 답변 At 생성 → 임베딩 E(At) 추출 → 1 - cos(E(A0), E(At)) 계산] 과정을 통해 시간에 따른 페르소나 붕괴 과정을 추적할 수 있다.
한계점
본 연구는 주로 영어 기반의 지시 학습된(Instruction-tuned) 모델들을 대상으로 실험되었으며, 더 작은 규모의 모델이나 다른 언어 모델에서의 일반화 성능은 추가 검증이 필요하다. 또한 현재는 1:1 대화 상황에 최적화되어 있어 다자간 대화나 역할이 동적으로 변하는 복잡한 시나리오에는 한계가 있을 수 있다.
실무 활용
상담, 교육, 의료 등 고도의 역할 수행이 필요한 도메인의 합성 대화 데이터 생성에 즉시 활용 가능하다. 특히 데이터 생성 비용을 낮추기 위해 작은 모델을 사용할 때 발생하는 지시 이행 능력 저하 문제를 프롬프트 구조 개선만으로 보완할 수 있다.
- 고객 상담 챗봇 학습을 위한 다양한 성향의 고객 페르소나 대화 데이터 생성
- 심리 상담 AI의 공감 능력 및 역할 유지 성능 평가용 시나리오 시뮬레이션
- 특정 도메인(법률, 금융) 지식을 갖춘 전문가 에이전트 간의 토론 데이터셋 구축
코드 공개 여부: 공개
코드 저장소 보기키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.