맘바-2
표준 Transformer의 Attention 메커니즘을 대체하는 상태 공간 모델(SSM) 아키텍처이다. 문맥 길이에 따라 연산량이 기하급수적으로 늘어나는 Attention과 달리, 고정된 크기의 상태를 유지하여 매우 긴 문맥에서도 일정한 추론 속도를 보장한다.