치명적 망각
인공 신경망이 새로운 정보를 학습할 때 이전에 학습했던 지식을 완전히 덮어씌워 버리는 현상이다. 순차적인 환경 변화가 잦은 강화학습에서 모델의 안정성을 해치는 주요 원인 중 하나이다.