LoRA 어댑터
모델의 전체 가중치를 수정하지 않고 일부 저순위 행렬만을 학습시켜 특정 작업에 최적화하는 효율적인 미세조정 기법이다. 소형 모델에 여러 어댑터를 결합하여 특정 도메인에서 거대 모델에 필적하는 성능을 저비용으로 구현할 수 있게 한다.