정책 게이팅
AI 모델이 제안한 동작을 실제로 실행하기 전, 미리 정의된 보안 정책이나 비즈니스 규칙에 부합하는지 검사하여 차단하거나 승인하는 단계이다. 모델의 환각으로 인한 잘못된 명령이나 권한 밖의 위험한 작업을 방지하는 안전장치 역할을 한다.