본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
희소 전문가 혼합 (sparse-moe) 용어 설명 | AI Trends
sparse-moe
희소 전문가 혼합
중급
전체 파라미터 중 일부(전문가)만 선택적으로 활성화하여 추론하는 방식으로, 모델의 용량은 키우면서 실제 연산 비용은 낮게 유지하는 기법이다.
비슷한 개념
moe
moe-mixture-of-experts
mixture-of-experts
sparse-activation
sparse-model
sparse-architecture
moe-lora
mixture-of-depths
← 용어 사전 전체 보기