dropout
학습 시 신경망의 일부 뉴런을 무작위로 비활성화하여 특정 뉴런에 대한 의존도를 낮추는 기법이다. 훈련 시에만 적용되어 모델의 앙상블 효과를 내고 과적합을 방지한다. 훈련 손실이 검증 손실보다 높게 나타나게 만드는 주요 요인 중 하나이다.
학습 시 신경망의 일부 뉴런을 무작위로 비활성화하여 특정 뉴런에 대한 의존도를 낮추는 기법이다. 훈련 시에만 적용되어 모델의 앙상블 효과를 내고 과적합을 방지한다. 훈련 손실이 검증 손실보다 높게 나타나게 만드는 주요 요인 중 하나이다.