모델 인버전
모델의 출력값을 반복적으로 분석하여 학습 데이터에 포함된 민감한 정보나 개인정보를 역으로 추론해내는 공격 방식이다. 이를 통해 기업의 기밀 데이터나 사용자의 개인 식별 정보(PII)가 유출될 수 있어 데이터 프라이버시 관점에서 매우 위험하다.