적대적 추론
시스템의 취약점이나 오류를 찾아내기 위해 의도적으로 반대되는 논리나 공격적인 질문을 던져 검증하는 방식이다. LLM의 논리적 허점을 파고들어 답변의 정당성을 시험함으로써 결과물의 품질을 높이는 데 사용된다.