Adam 옵티마이저
모멘텀과 RMSProp의 장점을 결합하여 학습률을 적응적으로 조절하는 딥러닝 최적화 알고리즘이다. 각 파라미터마다 개별적인 학습률을 유지하며, 기울기의 1차 및 2차 모멘트를 사용하여 업데이트를 수행한다.