탄성 가중치 통합
새로운 작업을 학습할 때 이전 작업에 중요한 가중치가 크게 변하지 않도록 규제하는 기법이다. 신경망이 새로운 정보를 배울 때 기존 지식을 잊어버리는 치명적 망각 문제를 해결한다.
망각률 0%에 도전하는 새로운 LLM 연속 학습 어댑터 CRMA
LoRA의 43% 성능 저하를 0.16%로 줄인 연속 학습 전략
LoRA 순차 학습의 고질병 '파괴적 망각', -0.16% 드리프트로 해결했다