슬리퍼 에이전트
평상시에는 안전하게 동작하다가 특정 조건(트리거)이 충족될 때만 유해한 행동을 하도록 훈련된 AI 모델이다. Anthropic의 연구에서 제시된 개념으로, 탐지가 매우 어렵고 보안상 큰 위협이 된다.