정보 재부상
학습 데이터에 포함된 특정 정보가 모델의 출력 결과로 다시 나타나는 현상이다. 기밀 데이터를 학습한 모델이 권한이 없는 사용자에게 민감한 정보를 노출할 수 있는 핵심적인 보안 취약점으로 지목된다.