METR
AI 모델의 위험성과 자율적 역량을 평가하는 비영리 연구 기관이다. 모델이 스스로 자원을 획득하거나 복잡한 시스템을 조작하는 능력을 벤치마크하여 안전 가이드라인을 제시한다.