적대적 조건
AI 시스템의 취약점을 노리고 의도적으로 조작된 입력이나 공격이 가해지는 환경이다. 모델이 보안 가이드라인을 위반하거나 비정상적인 동작을 수행하도록 유도하여 시스템의 견고성을 테스트하는 데 사용된다.