핵심 요약
기존의 AI 안전 가드레일 모델들은 LLM의 최종 출력 결과에만 의존하여 유해성을 판단했으나, 이 논문은 모델 내부 레이어에 숨겨진 풍부한 안전 관련 정보를 활용하는 SIREN을 제안한다. 이를 통해 파라미터 수를 250배 줄이면서도 기존 SOTA 모델보다 높은 정확도와 실시간 탐지 성능을 확보했다.
왜 중요한가
기존의 AI 안전 가드레일 모델들은 LLM의 최종 출력 결과에만 의존하여 유해성을 판단했으나, 이 논문은 모델 내부 레이어에 숨겨진 풍부한 안전 관련 정보를 활용하는 SIREN을 제안한다. 이를 통해 파라미터 수를 250배 줄이면서도 기존 SOTA 모델보다 높은 정확도와 실시간 탐지 성능을 확보했다.
핵심 기여
SIREN 프레임워크 제안
LLM의 내부 레이어에서 유해성 판단에 기여하는 '안전 뉴런'을 식별하고 이를 적응형 가중치로 통합하는 경량 가드 모델 SIREN(Safeguard with Internal REpresentatioN)을 구축했다.
파라미터 효율성 극대화
기존의 생성형 가드 모델들이 수십억 개의 파라미터를 사용하는 것과 달리, SIREN은 단 1,400만 개의 학습 가능한 파라미터(250배 감소)만으로도 더 우수한 성능을 기록했다.
실시간 스트리밍 탐지 구현
텍스트가 생성되는 도중에 토큰 단위로 유해성을 실시간 모니터링할 수 있는 기능을 추가 학습 없이 구현하여 추론 효율성을 4배 이상 개선했다.
일관된 안전 정책 유지
다양한 벤치마크에서 정밀도와 재현율의 균형을 안정적으로 유지하며, 특정 데이터셋에 편향되지 않는 범용적인 유해성 판단 기준을 학습함을 입증했다.
관련 Figure

SIREN이 기존 모델 대비 수백 배 적은 파라미터(예: Qw-4B 기준 250배 차이)만으로도 동작함을 수치적으로 보여준다. 이는 SIREN의 극도로 높은 효율성을 시각적으로 강조한다.
SIREN과 기존 가드 모델 간의 학습 가능한 파라미터 수를 비교한 바 차트이다.
핵심 아이디어 이해하기
Transformer 기반 LLM은 입력된 텍스트를 여러 레이어를 거쳐 처리하며, 각 레이어는 저수준의 문법부터 고수준의 추상적 의미까지 단계적으로 정보를 구축한다. 기존 가드 모델은 마지막 레이어의 결과물만 보고 유해성을 판단하지만, 실제로는 중간 레이어들에 유해한 의도나 위험한 개념을 포착하는 '안전 뉴런'들이 넓게 분포되어 있다.
SIREN은 먼저 Linear Probing을 통해 각 레이어에서 유해성 분류에 가장 큰 영향을 미치는 뉴런들을 선별한다. 이는 마치 거대한 도서관에서 특정 주제의 책들이 꽂힌 위치를 찾아내는 것과 같다. 이후 각 레이어의 중요도를 성능 기반으로 계산하여, 유해성 정보가 풍부한 중간 레이어의 신호를 더 강하게 반영하도록 설계했다.
결과적으로 SIREN은 모델 전체를 다시 학습시킬 필요 없이, 이미 모델 내부에 존재하는 안전 정보를 효율적으로 추출하여 결합한다. 이를 통해 아주 적은 연산량만으로도 문맥의 위험성을 정확하게 짚어낼 수 있게 된다.
관련 Figure

중간 레이어(Middle layers)에서 유해성 분류 성능이 정점을 찍고 마지막 레이어로 갈수록 오히려 낮아지는 경향을 보여준다. 이는 왜 마지막 레이어만 사용하는 기존 방식이 비효율적인지를 기술적으로 증명한다.
레이어 인덱스에 따른 선형 프로빙의 성능 변화를 나타낸 그래프이다.
방법론
SIREN은 2단계 구조로 동작한다. 첫 번째 단계인 '안전 뉴런 식별'에서는 동결된 LLM의 각 레이어 l에서 중간 표현 x_l을 추출하고 평균 풀링을 적용하여 문장 수준의 벡터 x*_l을 생성한다. 이후 L1 규제가 포함된 선형 회귀를 통해 각 뉴런의 가중치 W_l을 학습시키고, 가중치 크기가 큰 상위 뉴런들을 안전 뉴런 집합 S_l로 선택한다.
두 번째 단계인 '적응형 뉴런 통합'에서는 각 레이어의 검증 F1 점수 f_l을 입력으로 하여 레이어 가중치 α_l = (f_l - f_min) / (f_max - f_min)을 계산한다. [각 레이어의 성능 수치 → 정규화 연산 → 레이어별 중요도] 과정을 거쳐 정보량이 많은 레이어에 높은 가중치를 부여한다. 최종적으로 α_l이 곱해진 안전 뉴런들의 활성화 값을 모두 이어 붙여(concatenation) 다층 퍼셉트론(MLP) 분류기에 입력함으로써 유해 여부를 최종 판정한다.
관련 Figure

기존 모델(a)은 마지막 레이어의 출력만 사용하지만, SIREN(b)은 모든 내부 레이어에서 안전 뉴런을 식별하고 적응형으로 통합하여 분류기에 전달하는 과정을 시각화한다. 이는 SIREN이 모델 내부의 풍부한 정보를 어떻게 활용하는지 핵심 원리를 보여준다.
기존 가드 모델과 SIREN의 구조적 차이를 비교한 다이어그램이다.
주요 결과
SIREN은 Qwen3-0.6B, Llama3.2-1B 등 다양한 백본 모델에서 기존 가드 모델(LlamaGuard3, Qwen3Guard)을 압도했다. Llama3.2-1B 기반 SIREN은 평균 F1 스코어 85.7%를 기록하여 동일 백본의 가드 모델(70.7%) 대비 15%p 성능 향상을 보였다. 특히 학습에 사용되지 않은 'Think' 벤치마크(추론 과정 포함)에서도 8B 모델 기준 평균 11.2%p 높은 성능을 기록하며 뛰어난 일반화 능력을 증명했다.
효율성 측면에서 SIREN은 기존 생성형 가드 모델 대비 추론 시 FLOPs(연산량)를 약 4배 절감했다. 생성형 모델이 'Safe/Unsafe'라는 단어를 생성하기 위해 여러 번의 디코딩 과정을 거치는 반면, SIREN은 단 한 번의 순전파(forward pass)만으로 분류를 완료하기 때문이다. 또한 파라미터 수는 Qwen3-4B 기준 250배 적은 14M개만으로 학습이 가능했다.
관련 Figure

SIREN이 모든 지연 구간에서 기존 Qwen3Guard-Stream보다 높은 탐지율을 유지함을 보여준다. 특히 텍스트 생성 초기 단계(Timely)에서도 유해성을 빠르게 포착하는 능력이 우수함을 입증한다.
스트리밍 생성 시 지연 시간(Latency)에 따른 유해성 탐지율 변화 그래프이다.

SIREN이 기존 생성형 가드 모델보다 약 4배 적은 연산량으로 추론을 수행함을 보여준다. 이는 실시간 서비스 적용 시 비용과 속도 측면에서의 이점을 뒷받침하는 근거가 된다.
샘플당 추론 연산량(FLOPs)을 비교한 그래프이다.
기술 상세
SIREN 아키텍처는 동결된 트랜스포머 백본 위에 구축된 경량 분류 헤드 구조를 취한다. 핵심은 '선형 표현 가설(Linear Representation Hypothesis)'에 기반하여 각 레이어의 특징 공간에서 유해성 개념이 선형적으로 분리 가능하다는 점을 활용한 것이다. 중간 레이어(Middle layers)가 터미널 레이어보다 유해성 분류 성능이 높다는 실험 결과를 바탕으로, 레이어별 성능에 따른 적응형 가중치(Adaptive Layer-weighted Aggregation)를 도입하여 정보 손실을 최소화했다.
구현 시 각 레이어의 Residual Stream과 FFN 활성화 값을 모두 고려하며, L1 Regularization을 통해 유해성 판단에 불필요한 뉴런을 제거하는 Sparsification 과정을 거친다. 이는 전체 차원 중 약 1.75%~12.9%의 뉴런만으로도 충분한 성능을 낼 수 있음을 보여준다. 또한 스트리밍 환경에서는 이전 토큰들의 내부 상태를 평균 풀링하여 현재 시점까지의 유해성을 즉각 판별하는 Zero-shot 전이 방식을 채택했다.
한계점
본 연구의 안전 뉴런 선택은 표준 트랜스포머 아키텍처를 전제로 하는 선형 표현 가설에 의존하므로, 구조가 크게 다른 모델에서는 추가적인 적응이 필요할 수 있다. 또한 현재는 유해/무해의 이진 분류에 집중하고 있어, 다중 카테고리의 세부적인 안전 가이드라인 적용은 향후 과제로 남아있다.
실무 활용
LLM 서비스 운영 시 실시간으로 유해 콘텐츠를 차단해야 하는 환경에 즉시 적용 가능한 경량 플러그인 솔루션이다.
- 실시간 채팅 서비스의 토큰 단위 유해성 스트리밍 모니터링
- 추론 비용 절감이 절실한 대규모 LLM 서비스의 안전 가드레일
- 기존 가드 모델의 성능 보완을 위한 앙상블 레이어 추가
- 추론 모델(Reasoning Model)의 사고 과정(Chain-of-Thought) 내 유해성 감지
코드 공개 여부: 공개
코드 저장소 보기관련 Figure

모델의 사고 과정(think) 중 유해한 내용이 시작되는 지점을 SIREN이 정확히 감지하여 붉은색으로 표시하는 사례를 보여준다. 추가 학습 없이도 문장 내 특정 위험 구간을 식별할 수 있음을 시연한다.
토큰 단위 스트리밍 탐지 결과의 예시로, 유해성 정도에 따라 토큰별로 색상이 지정되어 있다.
키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.