혼합 전문가 저순위 적응
Mixture of Experts(MoE)의 라우팅 구조와 LoRA의 경량 파인튜닝 기법을 결합한 방식이다. 여러 개의 LoRA 어댑터를 전문가(Expert)로 설정하고 입력에 따라 적절한 어댑터를 선택하여 실행함으로써 모델의 표현력을 높이면서도 연산 효율성을 유지한다.