본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
가중치 발산 (weight-divergence) 용어 설명 | AI Trends
weight-divergence
가중치 발산
중급
학습 중 가중치 파라미터의 값이 제어 범위를 벗어나 급격히 커지는 현상이다. 이는 수치적 불안정성을 야기하며 결국 모델의 예측 성능을 완전히 파괴하는 원인이 된다.
비슷한 개념
training-instability
weight-drift
weight-decay-collapse
gradient-explosion
grad-norm-explosion
weight-clipping
nan-loss
initialization
← 용어 사전 전체 보기