핵심 요약
긴 문맥의 에이전트 워크플로우(Long-context agentic workflows)가 대형 언어 모델(LLM)의 결정적인 사용 사례로 부상함에 따라, 추론 속도와 서비스 비용 모두에서 어텐션 효율성(attention efficiency)이 매우 중요해졌습니다. 희소 어텐션(Sparse attention)은 이 과제를 효과적으로 해결하며, 딥시크 희소 어텐션(DeepSeek Sparse Attention, DSA)은 대표적인 상용 수준의 솔루션입니다. 이는 가벼운 번개 인덱서(lightning indexer)가 쿼리당 가장 관련성이 높은 상위 k개 토큰(top-k tokens)을 선택하여 핵심 어텐션 복잡도를 O(L^2)에서 O(Lk)로 줄입니다. 그러나 인덱서 자체는 여전히 O(L^2) 복잡도를 유지하며, 연속된 계층에서 결과적인 상위 k개 선택이 매우 유사함에도 불구하고 모든 계층에서 독립적으로 실행되어야 합니다. 본 논문에서는 이러한 계층 간 중복성(cross-layer redundancy)을 활용하는 IndexCache를 제안합니다. IndexCache는 계층을 자체 인덱서를 실행하는 소수의 전체 계층(Full layers)과 가장 가까운 전체 계층의 상위 k개 인덱스를 단순히 재사용하는 다수의 공유 계층(Shared layers)으로 분할합니다. 우리는 이 구성을 결정하고 최적화하기 위한 두 가지 상호 보완적인 접근 방식을 제안합니다. 훈련이 필요 없는(Training-free) IndexCache는 가중치 업데이트 없이 보정 데이터셋(calibration set)에서 언어 모델링 손실(language modeling loss)을 직접 최소화하여 인덱서를 유지할 계층을 선택하는 탐욕적 검색 알고리즘(greedy search algorithm)을 적용합니다. 훈련 기반(Training-aware) IndexCache는 유지된 각 인덱서가 서비스하는 모든 계층의 평균 어텐션 분포에 대해 학습하도록 하는 다계층 증류 손실(multi-layer distillation loss)을 도입하여, 단순한 인터리브 패턴(interleaved patterns)으로도 전체 인덱서의 정확도와 일치할 수 있게 합니다. 30B DSA 모델에 대한 실험 결과, IndexCache는 품질 저하를 거의 무시할 수 있는 수준으로 유지하면서 인덱서 계산의 75%를 제거할 수 있었으며, 표준 DSA 대비 최대 1.82배의 프리필(prefill) 가속과 1.48배의 디코딩(decode) 가속을 달성했습니다. 이러한 긍정적인 결과는 상용 규모의 GLM-5 모델에 대한 예비 실험을 통해 더욱 확인되었습니다.
핵심 기여
계층 간 인덱스 재사용 메커니즘
연속된 계층 간의 어텐션 패턴 유사성을 발견하고, 이를 활용해 인덱서 계산을 공유하는 구조를 제안하여 중복 계산을 제거했다.
탐욕적 검색 기반 최적화 알고리즘
추가적인 모델 학습 없이도 성능 하락을 최소화하면서 인덱서를 유지할 최적의 계층 조합을 찾아내는 훈련 프리(Training-free) 방식을 개발했다.
다계층 증류 손실 함수 도입
특정 계층의 인덱서가 자신이 담당하는 여러 공유 계층의 어텐션 분포를 모두 학습하도록 유도하는 증류 기법을 통해 정확도를 보존했다.
방법론
계층을 Full layers와 Shared layers로 구분하고, Shared layers는 인접한 Full layer의 top-k 인덱스를 그대로 사용한다. 최적의 계층 배치를 위해 보정 데이터셋에서 언어 모델링 손실을 최소화하는 탐욕적 검색을 수행하거나, 다계층의 어텐션 분포를 모방하도록 인덱서를 증류 학습(Distillation)시킨다.
주요 결과
30B 규모의 DSA 모델에서 인덱서 계산량의 75%를 제거했다. 이를 통해 표준 DSA 대비 프리필(Prefill) 속도는 1.82배, 디코딩(Decode) 속도는 1.48배 향상되었으며 모델 성능 저하는 미미했다. GLM-5 모델에서도 유사한 가속 효과를 확인했다.
시사점
긴 문맥을 처리하는 LLM 서비스에서 인덱서로 인한 연산 병목을 획기적으로 줄여 인프라 비용을 절감할 수 있다. 특히 실시간 에이전트 서비스와 같이 빠른 응답이 필요한 환경에서 희소 어텐션의 효율성을 극대화하는 실무적 기법으로 활용될 수 있다.
키워드
섹션별 상세
계층 간 인덱스 재사용 메커니즘
탐욕적 검색 기반 최적화 알고리즘
다계층 증류 손실 함수 도입
AI 요약 · 북마크 · 개인 피드 설정 — 무료