핵심 요약
대형 언어 모델(LLM)의 거대한 크기와 높은 운영 비용은 기업 도입의 주요 장애물이다. 스페인 스타트업 멀티버스 컴퓨팅(Multiverse Computing)은 양자 컴퓨팅에서 영감을 얻은 'CompactifAI' 압축 기술을 통해 이 문제를 해결하고자 한다. 최근 공개된 HyperNova 60B 모델은 OpenAI의 gpt-oss-120b를 기반으로 하지만 크기는 절반인 32GB에 불과하며, 낮은 지연 시간과 메모리 사용량을 자랑한다. 이는 유럽 내 '소버린 AI(Sovereign AI)' 수요를 겨냥한 전략적 행보로 평가받는다.
배경
LLM 아키텍처에 대한 기본 이해, 모델 압축 및 양자화 개념, 허깅페이스 사용법
대상 독자
효율적인 LLM 배포를 고민하는 엔터프라이즈 개발자 및 AI 인프라 전략가
의미 / 영향
이번 모델 공개는 거대 모델의 경량화가 단순한 트렌드를 넘어 기업용 AI 시장의 필수 요건임을 보여준다. 특히 유럽발 소버린 AI의 성장은 글로벌 AI 생태계에서 미국 기술 독점에 대한 실질적인 대안이 될 수 있음을 시사한다.
섹션별 상세
멀티버스 컴퓨팅은 양자 컴퓨팅 원리를 적용한 고유의 압축 기술인 CompactifAI를 개발했다. 이 기술은 모델의 핵심 성능을 유지하면서도 파라미터 수를 효율적으로 줄여 기업들이 감당 가능한 수준의 배포 비용을 실현하는 데 중점을 둔다. 현재 OpenAI의 모델들에 이 기술을 적용하여 최적화 작업을 진행 중이다.
새롭게 업데이트된 HyperNova 60B 2602 모델은 32GB 크기로 설계되어 원본 모델인 gpt-oss-120b 대비 용량을 약 50% 절감했다. 특히 도구 호출(Tool Calling)과 에이전트 기반 코딩(Agentic Coding) 기능을 강화하여 추론 비용이 많이 발생하는 복잡한 작업에서 효율성을 극대화했다. 해당 모델은 현재 허깅페이스(Hugging Face)를 통해 무료로 이용 가능하다.
멀티버스 컴퓨팅은 자사 모델이 프랑스의 미스트랄 AI(Mistral AI)가 출시한 Mistral Large 3와 대등하거나 그 이상의 성능을 보인다고 주장한다. 보쉬(Bosch), 캐나다 은행(Bank of Canada) 등 주요 기업 고객을 확보하며 유럽의 기술 주권을 강조하는 '소버린 AI' 스택을 구축하고 있다. 이는 미국 빅테크 의존도를 낮추려는 유럽 시장의 요구와 맞물려 있다.
회사는 현재 15억 유로 이상의 기업 가치를 목표로 5억 유로 규모의 신규 투자 유치를 진행 중인 것으로 알려졌다. 올해 1월 기준 연간 반복 매출(ARR)이 1억 유로에 도달했다는 보고가 있으며, 이는 미스트랄 AI의 성장세와 비교될 만큼 가파른 수치이다. 스페인 정부와 지역 기관의 전폭적인 지원을 받으며 유럽의 차세대 유니콘 기업으로 주목받고 있다.
실무 Takeaway
- 양자 영감 압축 기술(CompactifAI)을 통해 LLM의 메모리 점유율을 50% 줄이면서도 실무 수준의 정확도를 유지할 수 있다.
- 유럽 시장에서는 데이터 주권과 비용 효율성을 동시에 잡기 위한 '소버린 AI' 솔루션이 강력한 경쟁력을 가진다.
- 에이전트 코딩 및 도구 호출과 같이 추론 비용이 높은 영역에서 압축 모델의 경제적 가치가 더욱 두드러진다.
언급된 리소스
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료