적대적 프롬프팅
AI 모델에게 비판적인 검토자 역할을 부여하여 입력된 결과물의 오류나 취약점을 공격적으로 찾아내도록 유도하는 기법이다. 모델의 자기 복제적 편향을 억제하고 객관적인 품질 검증을 수행하는 데 필수적이다.