위협 모델
시스템에 발생할 수 있는 잠재적 공격이나 위험 요소를 정의하고 식별하는 프레임워크이다. AI 안전에서는 특정 아키텍처가 초래할 수 있는 파멸적 시나리오를 구체화하는 데 쓰인다.
미 국방부 블랙리스트에도 MS·구글이 앤스로픽을 포기 못 하는 이유
"보안 노이즈 84% 감소" OpenAI가 공개한 AI 보안 에이전트 Codex Security
AI가 인간 지능을 추월하는 시점? METR의 시간 지평 그래프에 숨겨진 진실
LLM은 안전하지만 AGI는 다르다? AI 안전 전문가의 경고