출력 게이팅
LLM이 생성한 답변이 최종 사용자에게 전달되기 직전에 특정 안전 기준이나 정책 준수 여부를 검증하여 차단 또는 허용을 결정하는 필터링 메커니즘이다. 시스템의 최종 방어선 역할을 수행하며 부적절한 정보 유출을 방지한다.