본문으로 건너뛰기
weight-decay
가중치 감쇠
중급
학습 과정에서 가중치의 크기에 비례하는 페널티를 손실 함수에 추가하여 모델의 복잡도를 줄이고 과적합을 방지하는 정규화 기법이다.
비슷한 개념
regularization
weight-clipping
weight-decay-collapse
initialization
weight-drift
optimizer
weight-divergence
optimization-complexity
← 용어 사전 전체 보기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지