적대적 탐색
시스템의 취약점이나 오류를 찾기 위해 의도적으로 경계값이나 비정상적인 입력을 주어 테스트하는 방식이다. AI가 생성한 코드가 실제 환경에서 견고하게 작동하는지 검증하는 데 필수적이다.