응답 루프
LLM이 특정 토큰이나 문장 패턴을 끝없이 반복하며 생성을 멈추지 못하는 현상이다. 모델의 확률적 예측이 특정 상태에 고착될 때 발생하며, 정지 토큰(Stop Token)을 생성하지 못해 발생한다.