적대적 스캔
시스템의 취약점을 찾기 위해 공격자의 관점에서 다양한 공격 시나리오를 자동화하여 테스트하는 과정이다. LLM 환경에서는 예상치 못한 입력값에 대한 모델의 반응을 확인하여 보안 구멍을 식별하는 데 사용된다.