핵심 요약
미네소타주 의회가 실제 인물의 이미지를 성적으로 조작하는 이른바 '누드화 앱'을 금지하는 법안을 만장일치로 통과시켰다. 이 법안은 해당 소프트웨어 개발자에게 징벌적 손해배상을 포함한 광범위한 책임을 묻고, 주 내에서 제품 사용을 차단할 수 있는 권한을 부여한다. 특히 가짜 AI 누드물이 적발될 경우 건당 최대 50만 달러의 벌금을 부과할 수 있는 강력한 처벌 조항이 포함됐다. 수집된 벌금은 성폭력 및 가정폭력 피해자를 위한 기금으로 사용될 예정이며, 주지사의 서명을 거쳐 올해 8월부터 시행될 전망이다.
배경
딥페이크 및 AI 이미지 생성 기술에 대한 기본 이해, 미국 주법의 입법 절차 및 징벌적 손해배상 개념
대상 독자
AI 서비스 개발자, 법률 전문가, 정책 입안자 및 디지털 성범죄 예방 관련 종사자
의미 / 영향
이번 법안은 AI 기술의 오용, 특히 딥페이크 성범죄에 대해 기술 개발자에게 직접적인 법적 책임을 묻는 강력한 선례를 남겼습니다. 이는 단순한 이용자 처벌을 넘어 범죄 도구를 제공하는 플랫폼과 소프트웨어 제조사에 대한 규제를 강화함으로써 AI 윤리 및 안전 기준을 법적으로 강제하는 흐름을 보여줍니다.
섹션별 상세
실무 Takeaway
- AI 이미지 생성 기술을 악용하여 타인의 동의 없이 성적 결과물을 만드는 소프트웨어 개발사는 징벌적 손해배상과 서비스 차단이라는 강력한 법적 리스크에 직면하게 된다.
- 가짜 AI 누드물 한 건당 최대 50만 달러의 벌금이 부과될 수 있으므로 AI 서비스 운영 시 콘텐츠 생성 가이드라인과 안전 장치 마련이 필수적이다.
- 미네소타주의 이번 조치는 향후 다른 주나 국가에서도 AI 성범죄 도구에 대한 유사한 규제 입법을 촉발하는 계기가 될 수 있다.
언급된 리소스
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.