본문으로 건너뛰기

safeguard

안전장치

입문

AI 모델이 부적절하거나 유해한 콘텐츠를 생성하지 못하도록 제한하는 기술적 조치다. 키워드 필터링, 이미지 인식 차단 등을 통해 저작권이 있는 캐릭터나 실존 인물의 생성을 막는 역할을 수행한다.