적대적 설정
AI 모델의 취약점을 드러내거나 오답을 유도하기 위해 의도적으로 설계된 입력 환경이다. 모델이 논리적 모순을 어떻게 처리하는지 테스트하여 안전성과 견고성을 평가하는 데 사용된다.