catastrophic-forgetting
인공 신경망이 새로운 정보를 학습할 때 이전에 학습했던 지식을 완전히 덮어씌워 버리는 현상이다. 순차적인 환경 변화가 잦은 강화학습에서 모델의 안정성을 해치는 주요 원인 중 하나이다.
파멸적 망각 0% 도전? 새로운 CRMA 어댑터의 놀라운 성능
LoRA의 한계 돌파: 5개 도메인 연속 학습 시 정확도 저하 0.16%로 방어
Mistral-7B 파인튜닝 성능 저하 43%에서 0.16%로 줄이는 법
2026년 AGI 도달? 실시간 학습 대신 '메모리 쓰기'로 진화하는 LLM
LoRA 파인튜닝 후 모델이 바보가 됐다면? 치명적 망각 방지 전략