적대적 에이전트
다른 AI 에이전트가 작성한 코드의 취약점이나 논리적 오류를 찾아내기 위해 의도적으로 공격적인 테스트를 수행하는 AI이다. 다층 검증 시스템에서 인간이 놓치기 쉬운 엣지 케이스를 방어하는 역할을 수행한다.