그래디언트 소실
학습 과정에서 가중치를 업데이트하기 위한 기울기 값이 너무 작아져 모델이 더 이상 개선되지 않는 현상이다. 본문에서는 모델이 지나치게 확신을 가질 때 로짓이 평탄해지며 발생한다고 설명한다.