증류 LoRA
지식 증류(Knowledge Distillation) 기법을 통해 거대 모델의 성능을 작은 파라미터 집합인 LoRA에 압축한 형태이다. LTX-2.3 모델에서 추론 속도를 높이면서도 품질을 유지하기 위해 사용되며, 적절한 강도 설정이 생성 안정성에 결정적인 역할을 한다.