핵심 요약
LLM 배포 시 모델이 외부 제어에 얼마나 잘 반응할지 예측하고, 배포 후 내부 구조가 변질되는 '드리프트'를 감지하는 것은 안전한 운영의 핵심이다. 이 논문은 기하학적 안정성이라는 단일 원리로 조종 가능성 예측과 사후 모니터링을 동시에 해결하는 새로운 진단 도구 Shesha를 제안한다.
왜 중요한가
LLM 배포 시 모델이 외부 제어에 얼마나 잘 반응할지 예측하고, 배포 후 내부 구조가 변질되는 '드리프트'를 감지하는 것은 안전한 운영의 핵심이다. 이 논문은 기하학적 안정성이라는 단일 원리로 조종 가능성 예측과 사후 모니터링을 동시에 해결하는 새로운 진단 도구 Shesha를 제안한다.
핵심 기여
Supervised Shesha를 통한 조종 가능성 사전 예측
모델을 직접 조종해보지 않고도 내부 표현의 기하학적 안정성을 측정하여 선형 조종(Linear Steering) 성공 여부를 ρ = 0.89–0.97의 높은 정확도로 예측한다.
Unsupervised Shesha를 활용한 고감도 드리프트 탐지
기존 CKA 지표보다 2배 더 민감하게 사후 학습(Post-training) 과정의 기하학적 변화를 감지하며, Procrustes 대비 6배 낮은 오경보율을 유지한다.
안정성-정렬 해리 현상 규명
모델의 내부 일관성(Unsupervised)과 특정 작업과의 정렬도(Supervised)가 서로 독립적인 속성임을 입증하여 배포 단계별로 적합한 지표가 다름을 증명했다.
핵심 아이디어 이해하기
딥러닝 모델의 Embedding 공간에서 개념은 특정 방향 벡터로 존재하며, 이를 직접 수정하여 모델의 행동을 바꾸는 기법을 Representation Engineering이라고 한다. 기존에는 모델이 분류를 잘하면 조종도 잘 될 것이라 믿었으나, 실제로는 분류 정확도가 높아도 내부 기하학적 구조가 취약하면 외부 개입 시 구조가 붕괴되어 조종에 실패하는 경우가 빈번하다.
이 논문은 표현의 '자기 일관성'에 주목한다. 데이터의 일부 차원만 사용해 계산한 거리 구조와 다른 차원을 사용해 계산한 구조가 일치한다면, 해당 정보가 모델 전체에 견고하게 인코딩되어 있음을 의미한다. 이를 '기하학적 안정성'이라 정의하고, 이 안정성이 높은 모델일수록 외부의 조종 벡터 주입에도 구조를 유지하며 의도대로 동작한다.
결과적으로 모델 배포 전에는 특정 작업 레이블과 모델 구조가 얼마나 일치하는지(Supervised)를 보고 조종 가능성을 판단하고, 배포 후에는 레이블 없이도 내부 구조의 일관성이 깨지는지(Unsupervised)를 감시함으로써 모델의 전체 생애주기를 관리할 수 있게 된다.
방법론
Shesha 지표는 표현 행렬 X에서 샘플 간의 거리를 나타내는 RDM(Representational Dissimilarity Matrix)을 두 가지 방식으로 생성한 뒤, 두 행렬 간의 Spearman 상관계수를 계산한다. [두 개의 RDM 행렬 입력] → [상부 삼각 요소 추출 및 상관계수 계산] → [0~1 사이의 숫자 출력] → [값이 클수록 기하학적 구조가 안정적임을 의미].
Unsupervised Shesha(SheshaFS)는 임베딩 차원을 무작위로 절반씩 나누어 두 개의 RDM을 만든다. [전체 임베딩 차원 입력] → [차원 분할 및 각 부분집합별 거리 계산] → [두 거리 행렬의 일치도 산출] → [정보가 특정 차원에 쏠리지 않고 중복 인코딩된 정도를 측정].
Supervised Shesha(Sheshasup)는 모델의 RDM과 정답 레이블로부터 도출된 이상적인 RDM을 비교한다. [모델 출력 거리와 레이블 기반 거리 입력] → [두 행렬 간 상관관계 계산] → [정렬도 수치 출력] → [모델의 기하학적 구조가 실제 작업의 클래스 구조를 얼마나 충실히 반영하는지 나타냄].
관련 Figure

차원 분할을 통한 내부 일관성 측정(FS)과 레이블 정렬 측정(sup)의 차이를 명확히 보여준다. 배포 전에는 조종 가능성을 예측하고 배포 후에는 드리프트를 감지하는 상호 보완적 역할을 강조한다.
Shesha의 Unsupervised 및 Supervised 메커니즘과 배포 생애주기별 활용 단계를 도식화한 그림이다.
주요 결과
Supervised Shesha는 69개의 임베딩 모델을 대상으로 한 실험에서 선형 조종 효과와 매우 높은 상관관계(ρ = 0.89–0.97)를 보였다. 이는 단순한 클래스 분리도(Separability)만으로는 설명할 수 없는 독자적인 예측 신호를 제공함을 확인했다.
Unsupervised Shesha는 Llama 등 23개 모델 쌍의 사후 학습 드리프트 탐지에서 CKA 대비 평균 1.96배(최대 5.23배) 더 큰 변화량을 감지했다. 또한 73%의 모델에서 CKA보다 더 빠르게 드리프트 경고를 발생시켰으며, Procrustes 지표가 38.7%의 오경보를 낼 때 Shesha는 6.5% 수준을 유지했다.
관련 Figure

모든 설정에서 Shesha 수치가 높을수록 조종 효과(Steering Effect)가 선형적으로 증가함을 입증한다. 특히 실제 작업(SST-2, MNLI)에서 Unsupervised 지표는 실패하지만 Supervised 지표는 강력한 예측력을 유지함을 보여준다.
다양한 데이터셋(Synthetic, SST-2, MNLI)에서 Supervised Shesha와 조종 효과 간의 상관관계를 보여주는 산점도이다.

Shesha가 CKA보다 훨씬 민감하게 변화를 포착하면서도, Procrustes와 달리 오경보(False Alarm) 비율을 매우 낮게 유지하여 최적의 균형을 달성했음을 수치로 증명한다.
사후 학습 드리프트 감지 성능을 CKA 및 Procrustes와 비교한 차트이다.
기술 상세
본 연구는 Linear Representation Hypothesis를 기반으로 하며, 선형 조종의 성공이 단순히 선형 분리 가능성에 의존하는 것이 아니라 표현의 기하학적 견고함(Rigidity)에 달려 있음을 수학적으로 고찰한다. Shesha는 CKA나 Procrustes와 달리 직교 변환(Orthogonal Transformation)에 불변하지 않도록 설계되어, 미세한 스펙트럼 재구성(Spectral Reorganization)까지 포착할 수 있는 민감도를 확보했다.
특히 LoRA나 양자화와 같은 가벼운 변경 사항이 기능적으로는 유사해 보일지라도 내부 기하학적 구조에는 상당한 드리프트를 유발할 수 있음을 실험적으로 보여주었다. 이는 안전 모니터링 시 행동 기반의 프로브(Behavioral Probe)보다 기하학적 모니터링이 더 조기 경보 시스템으로서 가치가 있음을 시사한다.
한계점
현재 연구는 주로 문장 임베딩 모델과 인코더 구조에 집중되어 있으며, 생성형 디코더 모델의 토큰 레벨 안정성이나 레이어별 상세 분석은 향후 과제로 남아 있다. 또한 계산 시 여러 번의 Forward Pass가 필요하여 실시간 모니터링 시 연산 비용이 발생할 수 있다.
실무 활용
LLM 기반 서비스를 운영하는 엔지니어가 모델의 신뢰성을 검증하고 실시간으로 상태를 모니터링하는 데 즉시 활용 가능하다.
- 모델 배포 전: 특정 도메인 데이터에 대해 Representation Engineering(조종)이 효과적일지 미리 판별
- 모델 배포 후: 사용자 입력 데이터의 특성이 변하거나 모델 성능이 저하되는 징후를 레이블 없이 실시간 감시
- 모델 업데이트 시: 파인튜닝이나 양자화(Quantization)가 내부 표현 구조를 얼마나 파괴하는지 정량적으로 평가
코드 공개 여부: 공개
코드 저장소 보기키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.