문맥 희석
LLM의 컨텍스트 윈도우 내에서 정보가 많아질수록 모델이 특정 부분(특히 중간이나 초기 정보)에 대한 주의력을 잃는 현상이다. 대화가 길어질수록 에이전트가 이전 지시사항이나 핵심 정보를 망각하게 만들어 성능 저하를 유발한다. 이를 방지하기 위해 효율적인 정보 압축 및 선택적 검색 전략이 중요하다.