red-teaming
레드팀
조직이나 시스템의 보안 취약점을 찾기 위해 적대적인 관점에서 공격을 시뮬레이션하는 전문 팀 또는 활동이다. AI 분야에서는 모델이 유해한 답변을 생성하거나 보안을 우회하는 경로를 찾는 테스트 과정을 의미한다.
레드팀
조직이나 시스템의 보안 취약점을 찾기 위해 적대적인 관점에서 공격을 시뮬레이션하는 전문 팀 또는 활동이다. AI 분야에서는 모델이 유해한 답변을 생성하거나 보안을 우회하는 경로를 찾는 테스트 과정을 의미한다.