핵심 요약
엔비디아는 메타와 수십억 달러 규모의 칩 공급 계약을 체결하며 기존 GPU 중심에서 CPU와 추론 시장으로 영역을 넓히고 있다. 이번 계약에는 블랙웰(Blackwell) 및 루빈(Rubin) GPU뿐만 아니라 엔비디아의 그레이스(Grace) CPU가 대규모로 포함되어, 에이전트형 AI(Agentic AI) 구동을 위한 인프라 구축을 목표로 한다. 메타는 2025년 말까지 총 130만 개의 GPU를 확보할 계획이며, 이는 AI 훈련뿐만 아니라 효율적인 추론 처리를 위한 전략적 선택이다. 엔비디아의 이러한 행보는 빅테크 기업들의 자체 칩 개발과 경쟁사 추격에 대응하여 AI 컴퓨팅의 전 과정을 장악하려는 의도로 풀이된다.
배경
GPU/CPU 아키텍처 기본 지식, AI 훈련(Training)과 추론(Inference)의 차이 이해
대상 독자
AI 인프라 설계자, 데이터 센터 운영자, AI 하드웨어 전략 분석가
의미 / 영향
엔비디아가 CPU 시장에 성공적으로 안착할 경우, 인텔과 AMD가 주도하던 데이터 센터 CPU 시장의 판도가 뒤바뀔 수 있다. 또한, 추론 비용 절감 기술의 확보는 AI 서비스의 대중화와 수익성 개선을 가속화할 것으로 보인다.
섹션별 상세
메타는 엔비디아와 수십억 달러 규모의 다년 계약을 체결하여 블랙웰 및 루빈 GPU와 함께 그레이스 CPU를 대규모로 도입하기로 했다. 이는 메타가 2025년 말까지 총 130만 개의 GPU 컴퓨팅 파워를 확보하려는 계획의 일환이며, 특히 엔비디아의 CPU를 단독 칩 형태로 대량 구매하는 첫 번째 사례라는 점에서 주목받는다. 메타는 이를 통해 훈련과 추론 모두에 최적화된 하이퍼스케일 데이터 센터를 구축할 예정이다.
에이전트형 AI의 부상은 범용 CPU 아키텍처에 대한 새로운 수요를 창출하고 있으며, 엔비디아는 이에 맞춰 CPU 시장으로의 확장을 꾀하고 있다. 기존의 클라우드 애플리케이션처럼 복잡한 로직을 처리해야 하는 AI 에이전트는 GPU와 상호작용할 수 있는 빠른 CPU를 필요로 한다. 마이크로소프트의 사례에서도 알 수 있듯이, GPU가 생성하는 페타바이트급 데이터를 관리하기 위해 수만 개의 CPU가 추가로 투입되는 등 AI 인프라 내 CPU의 중요성이 급격히 커지고 있다.
엔비디아는 추론 시장에서의 경쟁력을 강화하기 위해 최근 칩 스타트업 그록(Groq)의 기술을 200억 달러에 라이선스하고 핵심 인력을 영입하는 등 공격적인 투자를 진행했다. 젠슨 황 CEO는 이미 엔비디아 비즈니스의 약 40%가 추론 영역에서 발생한다고 언급한 바 있으며, 이번 투자는 저비용 고성능 추론 서비스에 대한 시장 요구에 대응하기 위한 것이다. 이는 훈련 시장의 압도적 점유율을 넘어 운영 단계인 추론 시장까지 장악하려는 전략적 포석이다.
오픈AI, 앤스로픽, 구글 등 주요 AI 기업들이 엔비디아 의존도를 낮추기 위해 자체 칩을 개발하거나 공급선을 다변화하면서 하드웨어 시장의 경쟁이 심화되고 있다. 오픈AI는 브로드컴과 협력하여 자체 칩을 설계하고 AMD 및 세레브라스(Cerebras)와 대규모 계약을 체결했으며, 구글은 자체 TPU를 활용해 모델을 훈련한다. 이러한 환경 변화는 엔비디아가 단순한 GPU 제조사를 넘어 CPU와 네트워킹 기술을 통합 제공하는 종합 컴퓨팅 솔루션 기업으로 진화하도록 압박하고 있다.
실무 Takeaway
- 에이전트형 AI(Agentic AI)의 확산으로 인해 GPU뿐만 아니라 고성능 CPU의 역할이 AI 인프라의 핵심 병목 해결 요소로 부상했다.
- 엔비디아는 그록(Groq) 기술 라이선스 등 추론(Inference) 최적화에 막대한 자금을 투입하며 모델 운영 단계의 비용 효율성 시장을 선점하려 한다.
- 빅테크 기업들의 '탈 엔비디아' 움직임에도 불구하고, 메타와 같은 대형 고객사들은 여전히 엔비디아의 통합 아키텍처(CPU+GPU+네트워킹)를 대안 없는 선택지로 평가하고 있다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료