본문으로 건너뛰기

adversarial-red-teaming

적대적 레드팀 테스트

중급

AI 모델의 취약점을 찾기 위해 의도적으로 공격적인 질문이나 비정상적인 입력을 주입하여 모델의 유해한 반응을 유도하는 보안 검증 방식입니다. 일반적인 기능 테스트와 달리 사용자의 악의적 의도나 예외 상황에서의 모델 행동을 파악하여 안전성을 강화하는 데 필수적입니다.