API 보안
외부 인터페이스를 통해 모델에 접근할 때 발생할 수 있는 남용, 데이터 탈취, 서비스 거부 공격 등을 방지하기 위한 기술적 보호 조치이다. 대규모 언어 모델의 경우 비정상적인 호출 패턴을 감지하고 차단하는 속도 제한 및 행동 분석 기술이 핵심이다.
1,600만 건의 공격, Anthropic이 폭로한 중국 AI 기업들의 지식 탈취 수법