안전장치
AI 모델이 부적절하거나 유해한 콘텐츠를 생성하지 못하도록 제한하는 기술적 조치다. 키워드 필터링, 이미지 인식 차단 등을 통해 저작권이 있는 캐릭터나 실존 인물의 생성을 막는 역할을 수행한다.