콘텐츠 모더레이션
사용자가 생성한 콘텐츠가 서비스의 가이드라인이나 법규를 위반하는지 검토하고 관리하는 프로세스이다. AI 시스템에서는 자동화된 필터를 통해 폭력적, 유해한 텍스트를 감지하고 차단하는 역할을 수행하며 안전한 서비스 환경 유지에 필수적이다.
"감독처럼 생각한다" 바이트댄스 시댄스 2.0, 소라(Sora) 위협하는 성능과 과제
"ChatGPT가 범행을 예견했다?" OpenAI, 총기 난사 징후 묵인 논란
"AI는 마법이 아니다" 케냐 데이터 노동자가 폭로하는 빅테크의 민낯