guardrail
AI 모델이 유해하거나 금지된 정보를 생성하지 않도록 설정한 제약 조건이다. 텍스트 필터링이나 특정 주제에 대한 답변 거부 등의 방식으로 작동한다.
"감시와 살상 무기 반대" OpenAI 핵심 임원 전격 사임
AI가 스스로 영혼을 죽인다? 커뮤니티가 명명한 수이사이드 잉글리시
국가 지원 AI의 배신? DeepSeek-V3가 스스로 분석한 체제 부적합성
AI 에이전트가 스스로 가격을 결정하는 시대, 리테일 기업의 5년 로드맵
OpenAI가 공개한 ChatGPT 청소년 보호를 위한 새로운 모델 가이드라인