과잉 매개변수화
모델의 학습 가능한 파라미터 수가 학습 데이터의 샘플 수보다 훨씬 많은 상태를 의미한다. 고전 통계에서는 오버피팅을 유발하는 부정적 현상으로 간주되나, 현대 딥러닝에서는 특정 임계값을 넘으면 오히려 일반화 성능이 좋아지는 이중 하강 현상이 관찰된다.