핵심 요약
미국 국방부가 앤스로픽(Anthropic)에 자사 AI 모델에 대한 무제한 접근권을 요구하며 금요일 저녁까지 답변을 요구하는 최후통첩을 보냈다. 피트 헤그세스 국방장관은 앤스로픽이 요구를 거부할 경우 '공급망 위험' 기업으로 지정하거나 국방물자생산법(DPA)을 동원해 군사적 목적에 맞춘 모델 제작을 강제하겠다고 위협했다. 앤스로픽은 대량 감시나 완전 자율 무기 사용을 금지하는 안전 가이드라인을 고수하며 타협을 거부하고 있어, 민간 기업의 AI 안전 정책과 국가 안보 요구 사이의 갈등이 격화되고 있다.
배경
AI 안전 가이드라인, 국방물자생산법(DPA) 개념
대상 독자
AI 정책 입안자, AI 기업 경영진, 국가 안보 및 국방 기술 관계자
의미 / 영향
민간 AI 기업의 윤리적 가이드라인과 국가 안보 요구가 정면 충돌하는 사례로, 향후 AI 규제와 국방 조달 정책의 향방을 결정짓는 중요한 분수령이 될 것이다.
섹션별 상세
미 국방부는 앤스로픽 CEO 다리오 아모데이와의 회동에서 AI 모델에 대한 군의 무제한 접근권을 요구하며 강력한 압박을 가했다. 거부 시 적대국 기업에 주로 적용되는 '공급망 위험' 지정이나, 대통령이 민간 기업의 생산을 강제할 수 있는 국방물자생산법(DPA)을 활용하겠다는 방침을 밝혔다.
앤스로픽은 자사 기술이 대량 감시나 자율 살상 무기에 사용되는 것을 방지하기 위한 엄격한 사용 정책을 유지하고 있으며, 이를 완화할 계획이 없음을 분명히 했다. 반면 국방부 관계자들은 군의 기술 사용이 민간 계약자의 정책이 아닌 미국 법률과 헌법적 한계에 의해 규제되어야 한다고 주장하며 대립하고 있다.
현재 앤스로픽은 미 국방부의 기밀 접근 권한을 가진 유일한 프런티어 AI 연구소로, 국방부는 대체 수단이 부족한 상황이다. xAI의 그록(Grok) 도입을 검토 중이나 즉각적인 대체가 불가능한 '단일 벤더' 상황이 국방부의 공격적인 태도를 부추긴 것으로 분석된다.
이번 사태는 AI 안전 가이드라인을 둘러싼 분쟁에 DPA를 적용하려는 시도로, 법적 안정성을 해치고 미국 내 비즈니스 환경에 부정적인 신호를 줄 수 있다는 우려가 제기된다. 특히 행정부의 불안정성이 기업 경영의 핵심인 예측 가능성을 위협하고 있다는 비판이 나오고 있다.
실무 Takeaway
- 미 국방부는 AI 모델의 군사적 활용을 위해 민간 기업의 안전 가이드라인을 무력화하려는 전례 없는 압박을 가하고 있다.
- 국방물자생산법(DPA)이 AI 모델의 커스텀 제작 강제에 동원될 경우, AI 기업들의 자율성과 안전 정책 수립권이 크게 위축될 수 있다.
- 국가 안보 기관의 특정 AI 벤더 의존성(Single-vendor dependency)은 정책 갈등 발생 시 국가적 리스크로 작용할 수 있음을 보여준다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료