핵심 요약
앤스로픽(Anthropic)은 딥시크(DeepSeek), 미니맥스(MiniMax), 문샷(Moonshot) 등 중국의 주요 AI 기업들이 자사의 모델인 클로드(Claude)를 무단으로 활용해 모델 성능을 개선했다고 발표했다. 이들은 약 24,000개의 허위 계정을 생성하여 1,600만 건 이상의 대화를 주고받으며 클로드의 추론 능력과 민감한 질문에 대한 답변 방식을 복제하는 '지식 증류(Distillation)'를 시도했다. 앤스로픽은 이러한 행위가 미국의 보안 가이드라인을 우회하고 권위주의 정부의 사이버 작전이나 감시에 악용될 수 있다고 경고했다. 이에 따라 AI 업계와 입법자들에게 무단 증류 문제를 해결하기 위한 공동의 노력을 요청했다.
배경
지식 증류(Knowledge Distillation) 개념, LLM 보안 및 정렬(Alignment)
대상 독자
AI 정책 입안자, LLM 개발사 관계자, AI 보안 전문가
의미 / 영향
이번 폭로는 미-중 AI 기술 패권 경쟁 속에서 데이터 보안과 모델 복제 방지가 핵심 쟁점이 될 것임을 시사한다. 향후 API 사용 제한이나 모델 출력물에 대한 워터마킹 등 무단 증류를 막기 위한 기술적, 제도적 장치가 강화될 것으로 예상된다.
섹션별 상세
앤스로픽은 중국 AI 기업들이 클로드를 상대로 대규모의 산업적 캠페인을 벌였다고 주장했다. 딥시크, 미니맥스, 문샷은 약 24,000개의 사기 계정을 동원해 총 1,600만 건 이상의 상호작용을 수행했다. 특히 미니맥스는 1,300만 건, 문샷은 340만 건, 딥시크는 15만 건 이상의 대화를 기록하며 클로드의 데이터를 수집했다.
주요 비난 대상인 '지식 증류(Distillation)'는 고성능 모델의 출력을 이용해 더 작은 모델을 학습시키는 기법이다. 앤스로픽은 증류 자체가 합법적인 학습 방법일 수 있으나, 타사의 기술력을 저비용으로 탈취하거나 보안 장치를 제거한 모델을 만드는 데 악용될 경우 심각한 위협이 된다고 지적했다. 특히 딥시크는 클로드의 추론 능력을 타겟팅하고 정치적으로 민감한 질문에 대한 '검열 안전' 대안 답변을 생성하는 데 클로드를 활용한 것으로 나타났다.
앤스로픽은 이러한 무단 증류가 국가 안보에 미치는 영향을 우려했다. 미국 모델에서 추출된 강력한 기능이 보호 장치 없이 해외 군사나 정보 시스템에 유입될 경우, 허위 정보 유포나 대규모 감시 시스템 구축에 사용될 수 있다는 논리다. 이에 앤스로픽은 클라우드 제공업체와 입법자들에게 칩 접근 제한 등을 포함한 강력한 규제와 대응책 마련을 촉구했다.
실무 Takeaway
- 중국 AI 기업들이 미국 선도 모델의 데이터를 대량으로 추출하여 자사 모델의 추론 성능을 높이고 검열 기준을 학습하는 데 활용하고 있다.
- 지식 증류(Distillation) 기법이 기술 탈취 및 보안 가이드라인 우회의 수단으로 변질되면서 AI 업계의 새로운 갈등 요소로 부상했다.
- 앤스로픽과 오픈AI 등 미국 기업들은 이러한 행위를 국가 안보 위협으로 규정하고 정부 차원의 강력한 규제를 요구하고 있다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료