핵심 요약
미 국방부가 Anthropic의 AI 모델 Claude를 '공급망 리스크'로 규정하고 사용을 금지하자, Anthropic이 이에 반발해 소송을 제기했다. 국방부는 Anthropic이 작전 중 모델을 원격으로 차단하거나 조작할 수 있다는 우려를 제기했으나, Anthropic은 모델에 '킬 스위치'나 백도어가 존재하지 않는다고 반박했다. Anthropic은 정부 전용 클라우드 환경에서 작동하는 모델에 대해 회사가 일방적으로 접근하거나 수정할 수 없음을 법정에서 강조했다. 이번 법적 분쟁은 민간 AI 기술의 군사적 활용과 그에 따른 통제권 문제를 시사한다.
배경
LLM 배포 구조에 대한 기본 이해, 미국 국방부 및 AI 정책 기조
대상 독자
AI 정책 결정자, 국방 기술 관계자, LLM 배포 보안 전문가
의미 / 영향
민간 AI 기술의 국방 도입 시 '통제권'과 '신뢰성'이 성능보다 중요한 변수가 될 수 있음을 보여준다. 향후 AI 기업들은 정부 시장 공략을 위해 기술적 독립성과 투명성을 입증해야 하는 과제를 안게 되었다.
섹션별 상세
Anthropic의 공공 부문 책임자 Thiyagu Ramasamy는 법원 제출 문서를 통해 미군이 Claude를 실행한 이후에는 회사가 모델을 조작하거나 접근을 차단할 능력이 없음을 명시했다. 이는 트럼프 행정부가 Anthropic이 전쟁 중 AI 도구를 변조할 수 있다고 주장한 것에 대한 직접적인 반박이다.
미 국방부는 Anthropic을 '공급망 리스크'로 지정하여 향후 몇 달간 국방부 및 계약업체들이 Claude를 사용하는 것을 금지했다. 국방부는 Anthropic이 특정 용도에 반대하여 모델 업데이트를 통해 작전을 방해하거나 접근을 차단할 위험을 감수할 수 없다는 입장이다.
Anthropic은 이러한 금지 조치가 헌법에 위배된다며 두 건의 소송을 제기하고 금지 조치 철회를 위한 긴급 명령을 요청했다. 이미 고객들이 계약을 취소하기 시작했으며, 3월 24일 샌프란시스코 연방법원에서 관련 심리가 예정되어 있다.
기술적 측면에서 Anthropic은 모델에 백도어나 원격 '킬 스위치'가 없음을 강조했다. 모델 업데이트는 정부와 클라우드 제공업체인 Amazon Web Services(AWS)의 승인이 있어야만 가능하며, Anthropic 직원이 군 시스템에 로그인하여 모델을 수정하는 것은 구조적으로 불가능하다.
Anthropic은 군의 전술적 결정에 대해 거부권을 행사할 의사가 없음을 분명히 했으며, 인간의 감독 없는 치명적인 공격에 Claude가 사용되는 것에 대한 우려를 해결하기 위한 계약 조항도 수용할 준비가 되어 있었다고 밝혔다. 그러나 국방부와의 협상은 최종적으로 결렬되었다.
실무 Takeaway
- 정부 전용 클라우드에 배포된 LLM은 모델 개발사가 직접 제어하거나 데이터를 열람할 수 없는 구조로 운영되어 보안성을 확보한다.
- AI 기업이 '공급망 리스크'로 지정될 경우, 기술적 우수성과 무관하게 공공 및 국방 시장 진출이 전면 차단될 수 있는 정책적 위험이 존재한다.
- 민간 AI의 군사 도입 시 '인간의 감독(Human-in-the-loop)' 여부와 모델 업데이트 권한 설정이 핵심적인 계약 및 기술적 쟁점이 된다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료