모델 오염
AI 학습 데이터에 악의적인 정보를 주입하거나 AI 생성 콘텐츠가 다시 학습 데이터로 사용되어 모델의 성능과 신뢰성을 저하시키는 공격 기법이다. 이는 AI가 잘못된 정보를 사실처럼 출력하게 만들어 기업의 의사결정 체계를 교란할 수 있다.