콘텐츠 모더레이션
사용자가 생성한 콘텐츠가 서비스의 가이드라인이나 법규를 위반하는지 검토하고 관리하는 프로세스이다. AI 시스템에서는 자동화된 필터를 통해 폭력적, 유해한 텍스트를 감지하고 차단하는 역할을 수행하며 안전한 서비스 환경 유지에 필수적이다.