핵심 요약
미 국방부가 AI 안전을 강조하는 앤스로픽(Anthropic)과의 관계를 재검토하며 2억 달러 규모의 계약이 위기에 처했다. 앤스로픽은 자사 모델 클로드(Claude)가 살상용 무기 설계나 자율 살상 시스템에 사용되는 것을 금지하는 안전 가이드라인을 고수하고 있으나 펜타곤은 승리를 위해 모든 수단을 동원해야 한다는 입장이다. 이러한 갈등은 AI 기업들이 추구해온 안전한 AI 개발 목표가 국가 안보와 군비 경쟁이라는 현실적 요구와 충돌하고 있음을 보여준다. 결국 군사적 목적의 AI 고도화가 인류 전체를 위한 AI 안전망을 약화시킬 수 있다는 우려가 커지고 있다.
대상 독자
AI 정책 입안자, 국방 기술 관계자, AI 윤리 및 안전 연구자
의미 / 영향
AI 안전을 강조하는 기업들이 정부의 군사적 요구와 충돌하면서 비즈니스 모델의 위기를 맞이할 수 있다. 이는 AI 산업 전반이 안전 중심에서 성능과 승리 중심으로 급격히 재편되는 계기가 될 수 있다.
섹션별 상세
미 국방부는 앤스로픽이 특정 살상 작전 참여를 거부했다는 이유로 해당 기업을 공급망 리스크로 지정하는 방안을 검토 중이다. 이는 보통 중국 등 적대국 기업에 부여되는 낙인으로 지정될 경우 앤스로픽의 AI를 사용하는 다른 국방 파트너사들도 사업에 차질을 빚게 된다. 펜타곤 대변인은 국가 파트너라면 전장에서 승리하기 위해 기꺼이 도와야 한다며 강경한 태도를 보였다.
앤스로픽은 창립 초기부터 AI 안전을 최우선 가치로 내세우며 모델 내부에 강력한 가드레일을 통합해왔다. 미 정부의 기밀 사용 승인을 받은 최초의 주요 AI 기업임에도 불구하고 무기 설계나 자율 무기 시스템 그리고 정부 감시 활동에 클로드가 사용되는 것을 명시적으로 금지하고 있다. 하지만 국방부 고위 관계자들은 인간의 반응 속도를 넘어서는 드론 스웜 공격 등에 대응하기 위해 AI의 무기화 제한을 용납할 수 없다는 입장이다.
오픈AI(OpenAI), xAI, 구글(Google) 등 다른 주요 AI 기업들도 국방부와의 계약을 위해 높은 수준의 보안 승인 절차를 밟고 있다. 과거 실리콘밸리 기업들이 국방부 협업에 소극적이었던 것과 달리 현재는 애국주의를 내세우며 군사 계약 체결에 적극적이다. 특히 팔란티어(Palantir)의 CEO 알렉스 카프는 자사 제품이 사람을 죽이는 데 사용된다는 점을 숨기지 않으며 앤스로픽의 태도와 대조를 이룬다.
AI 기술의 군사적 활용이 가속화되면서 국제적인 AI 안전 규제나 감시 기구에 대한 논의는 점차 힘을 잃고 있다. 각국이 국가 안보를 명분으로 AI 군비 경쟁에 뛰어들면서 살상력을 갖춘 AI 버전 개발이 안전한 AI를 만들려는 노력을 저해하고 있다. 이는 결국 통제 불가능하고 예측 불가능한 강력한 기술이 감시와 견제 없이 정부와 군에 공급되는 위험한 상황으로 이어질 수 있다.
실무 Takeaway
- AI 기업의 윤리적 가이드라인이 국가 안보라는 명분 하에 정부의 강력한 압박을 받을 수 있다
- 군사적 목적으로 개발된 AI 기술은 민간용 AI의 안전 가드레일을 무력화하거나 전체적인 기술 안전 수준을 낮추는 부작용을 초래할 수 있다
- 공급망 리스크 지정과 같은 규제적 조치가 기술 기업의 정부 사업 진입과 파트너십에 결정적인 영향을 미친다
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료