KL 발산
쿨백-라이블러 발산(Kullback-Leibler Divergence)의 약자로, 두 확률 분포 간의 차이를 측정하는 지표이다. LLM 양자화 맥락에서는 원본 모델과 양자화 모델의 출력 분포 차이를 나타내며, 이 값이 작을수록 원본의 지능을 잘 보존했음을 의미한다. 모델의 정밀도를 객관적으로 평가하는 핵심 도구이다.