본문으로 건너뛰기
LiquidAI, 24B 파라미터 규모의 희소 혼합 전문가(MoE) 모델 LFM2-24B-A2B 공개 | AI Trends