적대적 예제
모델이 의도적으로 잘못된 판단을 내리도록 설계된 입력 데이터이다. 파인튜닝 시 잘못된 지시사항을 포함한 데이터를 학습시키면 모델이 무조건적인 지시 이행 대신 비판적 사고나 안전한 거절을 학습하도록 돕는 역할을 한다.