핵심 요약
Anthropic이 발표한 모델 컨텍스트 프로토콜(MCP)은 AI 에이전트와 외부 서비스 간의 표준 인터페이스로 주목받았으나 실제 활용 측면에서 한계가 드러나고 있다. LLM은 이미 방대한 CLI 도구 사용법을 학습했기에 새로운 프로토콜 없이도 기존 도구를 충분히 활용할 수 있는 능력을 갖추고 있다. CLI는 인간과 기계 모두에게 읽기 쉽고 디버깅이 용이하며 파이프라인을 통한 도구 간 조합성이 뛰어나다는 강점을 가진다. 인증 체계 역시 기존의 검증된 방식을 그대로 사용할 수 있어 보안성 면에서도 MCP보다 우위에 있다. 따라서 개발자들은 새로운 프로토콜 구축보다 완성도 높은 API와 CLI 제공에 집중하는 것이 에이전트 생태계 발전에 더 효과적이다.
배경
CLI(Command Line Interface) 기본 개념, LLM의 Tool Use(Function Calling) 메커니즘, JSON 통신 프로토콜에 대한 이해
대상 독자
AI 에이전트 및 도구 개발자
의미 / 영향
이 분석은 AI 생태계가 새로운 표준 프로토콜을 만들기보다 기존의 견고한 도구(CLI)를 활용하는 방향이 더 효율적일 수 있음을 시사한다. 이는 개발자들이 리소스를 어디에 집중해야 할지에 대한 가이드를 제공한다.
섹션별 상세
LLM은 수많은 매뉴얼과 코드를 통해 이미 CLI 도구 사용에 최적화되어 있다. Claude와 같은 모델은 gh pr view와 같은 명령어를 별도의 프로토콜 정의 없이도 정확하게 실행한다. MCP가 제공하는 인터페이스는 결국 도구의 기능과 파라미터를 다시 문서화하는 작업에 불과하며 이는 모델이 스스로 추론하여 도구를 사용하는 능력을 과소평가한 결과이다.
CLI 기반 접근 방식은 인간과 AI 에이전트 간의 디버깅 경험을 일치시킨다. 에이전트가 예기치 않은 동작을 수행했을 때 사용자는 동일한 명령어를 터미널에서 실행하여 결과를 즉시 확인할 수 있다. 반면 MCP는 JSON 전송 로그를 분석해야 하는 번거로움이 있으며 도구가 LLM 대화 내부에만 존재하여 독립적인 테스트와 검증이 어렵다.
도구 간의 조합성(Composability) 측면에서 CLI는 MCP가 따라올 수 없는 유연성을 제공한다. 사용자는 jq나 grep 같은 표준 도구를 활용해 데이터를 가공하고 파이프라인으로 연결할 수 있지만 MCP는 모든 필터링 로직을 서버 내부에 구현하거나 전체 데이터를 컨텍스트 윈도우에 쏟아부어야 한다. 이는 비용 효율성을 떨어뜨리고 에이전트의 작업 범위를 제한하는 요소로 작용한다.
인증과 권한 관리에서도 CLI는 이미 검증된 인프라를 그대로 활용한다. AWS SSO나 GitHub 인증과 같은 기존 보안 흐름은 에이전트가 구동되는 환경에서도 동일하게 작동하며 별도의 MCP 전용 인증 로직을 구축할 필요가 없다. 또한 CLI는 명령어 단위로 실행 권한을 세밀하게 제어할 수 있어 읽기 전용 작업과 승인이 필요한 작업을 명확히 구분하기에 유리하다.
실무 Takeaway
- AI 에이전트용 도구를 개발할 때 MCP 서버 구축보다 완성도 높은 CLI 바이너리를 먼저 제공하는 것이 범용성 측면에서 유리하다.
- CLI의 파이프라인 구조를 활용하면 에이전트가 복잡한 데이터 처리 작업을 수행할 때 컨텍스트 비용을 획기적으로 줄일 수 있다.
- 기존의 인증 체계(SSO, Kubeconfig)를 그대로 활용하여 에이전트의 보안 신뢰성을 확보하고 운영 복잡도를 낮추어야 한다.
언급된 리소스
API DocsClaude Code
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료