안전 필터
AI 모델이 유해하거나 부적절한 콘텐츠를 생성하지 않도록 제한하는 기술적 장치이다. 필터가 너무 공격적으로 설정되면 정상적인 연구나 복잡한 대화 맥락까지 차단하여 모델의 유용성을 저해할 수 있다.