핵심 요약
앤드류 응은 AI가 기존 업무를 자동화하는 동시에 '마케팅 엔지니어'와 같은 새로운 직무를 창출하고 개발자 생산성을 극대화할 것이라고 전망한다. 기술적으로는 Z.ai가 성능이 대폭 향상된 744B 파라미터 규모의 오픈 모델 GLM-5를 공개하며 폐쇄형 모델과의 격차를 줄였다. 또한 Liquid AI는 모바일 기기에서도 작동 가능한 초경량 추론 모델 LFM2.5를 선보였으며, 의료 분야에서는 수면 데이터를 활용해 질병을 조기 예측하는 SleepFM 연구가 주목받고 있다. 마지막으로 빅테크 기업들의 AI 정책 영향력을 위한 로비 자금 투입이 사상 최대치를 기록하며 산업의 성숙도를 보여준다.
배경
MoE 아키텍처에 대한 기본 이해, LLM 벤치마크 지표(MMLU, GPQA 등) 지식, 온디바이스 추론 및 메모리 제약 조건에 대한 이해
대상 독자
AI 개발자, 데이터 과학자, 기술 전략가, 의료 AI 연구자
의미 / 영향
오픈 소스 모델과 폐쇄형 모델의 성능 격차가 급격히 줄어들고 있으며, AI 기술이 단순한 도구를 넘어 정책과 고용 구조 전반에 깊숙이 침투하고 있다. 특히 온디바이스와 의료 특화 AI의 발전이 실생활에 직접적인 변화를 가져올 것이다.
섹션별 상세
이미지 분석

GLM-5가 추론(AIME 2026) 및 에이전트 작업(Vending Bench 2)에서 다른 오픈 모델들을 압도하며 GPT-5.2나 Claude Opus 4.5와 대등한 수준임을 수치로 보여준다. 특히 Vending Bench 2에서 $4,432.12를 기록해 오픈 모델 중 독보적인 성능을 증명한다.
GLM-5 모델의 추론, 코딩, 에이전트 작업 성능을 타 모델과 비교한 벤치마크 표이다.

Meta가 약 2,629만 달러로 가장 많은 예산을 투입했으며, Nvidia의 경우 전년 대비 예산이 7배 이상 급증했음을 시각적으로 확인할 수 있다. 이는 AI 산업 내 정치적 영향력 확보 경쟁이 심화되고 있음을 나타낸다.
2024년 대비 2025년 주요 테크 기업들의 로비 예산 변화를 보여주는 막대 그래프이다.

LFM2.5-1.2B-Thinking 모델이 Qwen3-1.7B나 Llama 3.2 1B 등 경쟁 모델 대비 GPQA, IFEval 등에서 우수한 성적을 거두었음을 보여준다. 특히 하단 표는 모바일 기기에서의 빠른 토큰 생성 속도와 낮은 메모리 점유율을 구체적인 수치로 제시한다.
LFM2.5-1.2B 모델의 다양한 벤치마크 성능 및 온디바이스 추론 속도 비교표이다.

뇌파(BAS), 심전도(EKG) 등 다중 모달리티 신호가 1D CNN 인코더와 트랜스포머 블록을 거쳐 임베딩되는 과정을 설명한다. 최종적으로 LSTM 블록을 통해 수면 단계 분류 및 질병 예측 작업이 수행되는 아키텍처 구조를 명확히 보여준다.
수면 신호를 처리하여 질병을 예측하는 SleepFM의 데이터 처리 흐름도이다.
실무 Takeaway
- 개발자는 코딩 에이전트를 활용해 추상화 수준을 높이고 생산성을 10배 이상 향상시켜 'X 엔지니어'로 거듭나야 한다.
- GLM-5와 같은 고성능 오픈 모델의 등장으로 기업들은 독점 API 의존도를 낮추고 자체 인프라에서 최첨단 AI를 운영할 수 있는 선택권이 넓어졌다.
- 온디바이스 AI 구현 시 Liquid AI의 하이브리드 아키텍처처럼 메모리 효율과 추론 속도의 균형을 맞춘 모델 선택이 실무적으로 중요하다.
AI 요약 · 북마크 · 개인 피드 설정 — 무료