hallucination
AI 모델이 사실과 다르거나 근거 없는 내용을 그럴듯하게 생성하는 현상이다. RAG 시스템에서는 검색 실패나 검색된 정보에 대한 잘못된 해석으로 인해 발생하며, 이를 세분화하여 진단하는 것이 운영의 핵심이다.
LLM의 할루시네이션을 물리 법칙으로 제어하는 TRC 프레임워크
RAG 환각인가 검색 실패인가? EvalKit으로 한 번에 해결
AI가 스스로 영혼을 죽인다? 커뮤니티가 명명한 수이사이드 잉글리시
우리 DB에 없는 경쟁사 정책을 LLM이 어떻게 알죠? RAG 미스터리
3개월 업무를 일주일 만에 끝내는 30년 차 개발자의 비결