카이밍 초기화
ReLU와 같은 비선형 활성화 함수를 사용하는 심층 신경망에서 그래디언트 소실이나 폭주를 방지하기 위해 가중치의 초기값을 설정하는 방법이다. 초기 학습 단계에서 안정적인 그래디언트 흐름을 보장한다.