람다 학습률 스케줄러
사용자가 정의한 함수를 기반으로 학습률을 조절하는 PyTorch의 스케줄러 클래스이다. 유연하지만 다중 파라미터 그룹 설정 시 코드가 복잡해지는 단점이 있다.
LR만 조절하던 시대는 끝, 모든 옵티마이저 변수를 자유롭게 스케줄링하세요