핵심 요약
대규모 언어 모델(LLM)이 그럴듯하지만 사실이 아닌 정보를 생성하는 환각 현상이 실제 과학 지식 생산 과정에 미치는 영향을 분석한 연구이다. 연구진은 arXiv, bioRxiv, PubMed Central 등 주요 논문 저장소의 250만 개 논문에 포함된 1억 1,100만 개의 참조 문헌을 전수 조사했다. 분석 결과 LLM 도입 이후 존재하지 않는 가짜 인용문이 급격히 증가했으며, 2025년 한 해에만 보수적으로 잡아도 146,932건의 환각 인용이 발생한 것으로 추정된다. 이러한 오류는 특히 AI 활용도가 높은 분야와 신진 연구자 팀에서 두드러지게 나타나며, 기존의 유명 학자나 남성 학자에게 인용 공로를 편향되게 배분하는 경향을 보인다.
배경
LLM의 환각(Hallucination) 개념에 대한 이해, 과학 논문의 인용(Citation) 및 피어 리뷰 프로세스에 대한 기본 지식
대상 독자
AI 연구자, 과학 기술 정책 입안자, 학술지 편집자 및 논문을 작성하는 연구자
의미 / 영향
이 연구는 LLM의 환각이 단순한 기술적 결함을 넘어 과학적 진실성과 학계의 공정성을 실질적으로 위협하고 있음을 보여줍니다. 향후 논문 검증 시스템에 AI 생성 콘텐츠 및 가짜 인용을 탐지하는 자동화된 도구 도입이 필수화될 것으로 전망됩니다.
섹션별 상세
실무 Takeaway
- LLM을 활용해 논문을 작성할 경우, 생성된 인용 문헌이 실제로 존재하는지 교차 검증하는 단계가 필수적이다.
- 2025년 기준 약 14만 건 이상의 가짜 인용이 발생했다는 수치는 AI 보조 도구의 신뢰성 문제를 정량적으로 입증한다.
- AI가 생성한 데이터의 편향성이 학계의 성별 및 명성 불평등을 강화할 수 있으므로 알고리즘 정렬 시 공정성 고려가 필요하다.
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.