AI 안전 정책
AI 모델이 인류에게 해를 끼치거나 통제 불능 상태가 되지 않도록 개발 및 배포 과정에서 준수하는 일련의 규칙과 가이드라인이다. 앤스로픽은 이를 기업의 핵심 가치로 삼아왔으나 최근 경쟁 상황에 맞춰 유연하게 수정하고 있다.
앤스로픽, 경쟁사 모델 출시 시 위험 모델 개발 중단 정책 폐지