위치적 쇠퇴
LLM이 긴 문맥을 처리할 때 앞부분에 위치한 토큰에 대한 주의력(Attention)이 점차 약해지는 현상이다. 이로 인해 초기 지침이나 제약 조건을 망각하고 엉뚱한 결과를 내놓는 원인이 된다. 이는 모델의 구조적 한계로 인해 발생하며 긴 대화나 다단계 추론 과정에서 특히 두드러지게 나타난다.