He 초기화
ReLU 활성화 함수를 사용하는 신경망에서 가중치를 초기화하는 방법이다. 층이 깊어져도 그래디언트가 소실되거나 폭주하지 않도록 가중치의 분산을 조절하여 안정적인 학습을 돕는다.