model-poisoning
AI 학습 데이터에 악의적인 정보를 주입하거나 AI 생성 콘텐츠가 다시 학습 데이터로 사용되어 모델의 성능과 신뢰성을 저하시키는 공격 기법이다. 이는 AI가 잘못된 정보를 사실처럼 출력하게 만들어 기업의 의사결정 체계를 교란할 수 있다.
AI 학습 데이터에 악의적인 정보를 주입하거나 AI 생성 콘텐츠가 다시 학습 데이터로 사용되어 모델의 성능과 신뢰성을 저하시키는 공격 기법이다. 이는 AI가 잘못된 정보를 사실처럼 출력하게 만들어 기업의 의사결정 체계를 교란할 수 있다.