랭크 안정화 LoRA
LoRA의 랭크(rank) 크기에 따라 스케일링 팩터를 조정하여 학습 안정성을 높이는 기법이다. 랭크가 커질 때 발생할 수 있는 그래디언트 폭주 문제를 해결하여 더 깊은 어댑터 학습을 지원한다.