chunking
긴 텍스트를 의미 있는 작은 단위로 나누는 과정이다. RAG 시스템에서 검색 효율을 높이고 LLM의 컨텍스트 제한 내에 정보를 전달하기 위해 수행한다.
최적의 청크 크기는 700-800자, RAG 성능 극대화 전략
98.6% 정확도 달성, 베트남어 AI 텍스트 탐지를 위한 하이브리드 모델
Whisper 전사 품질과 속도 사이의 최적점은 60초 청크?
프로덕션 ML 전문가가 던지는 질문: RAG는 미래일까, 과도기적 아키텍처일까?
RAG 성능 저하의 주범 '청킹' 버리고 '가지치기'로 문맥 살리기