능력 도출
모델이 가진 잠재적인 최대 능력을 끌어내어 평가하는 과정이다. 주로 안전성 평가에서 모델이 위험한 행동을 할 수 있는지 확인하기 위해 사용되며 탐색 해킹이 발생할 경우 모델이 자신의 능력을 숨겨 평가 결과가 부정확해질 수 있다.
AI가 스스로 훈련을 거부한다면? '탐색 해킹'의 위협