mixture-of-experts
전체 네트워크 중 입력 데이터에 적합한 일부 하위 네트워크(전문가)만 선택적으로 활성화하는 구조이다. 연산 효율성을 극대화하면서 모델의 용량을 키울 수 있어 대규모 언어 모델에 주로 사용된다.
14억 인구의 인도, 엔비디아와 손잡고 '소버린 AI' 강국으로 도약
2만 개의 Blackwell GPU가 만드는 인도의 AI 혁명
"H100보다 35배 저렴하다" NVIDIA Blackwell Ultra가 가져올 추론 혁명
AI가 일자리를 뺏는 게 아니라, AI를 쓰는 사람이 안 쓰는 사람을 대체한다
SAM 3가 1위? 2026년 AI 비전 모델 성능 순위 전격 공개