안전 팀
AI 모델의 오남용을 방지하고 유해한 콘텐츠 생성을 차단하기 위해 가이드라인을 설정하고 모니터링하는 내부 전문가 조직이다. 모델이 폭력 조장이나 범죄 계획에 사용되지 않도록 위험 신호를 감지하고 대응 전략을 수립하는 역할을 수행한다.