핵심 요약
동일한 레이어를 반복 사용하는 루프형 모델이 실제 고유 레이어를 사용하는 모델 대비 어느 정도의 효율을 갖는지 정량적으로 측정했다. 이를 통해 루프형 아키텍처 설계 시 단순한 손실값 감소를 넘어 실제 추론 비용 대비 성능 이득이 있는지 판단할 수 있는 기준을 제공한다.
왜 중요한가
동일한 레이어를 반복 사용하는 루프형 모델이 실제 고유 레이어를 사용하는 모델 대비 어느 정도의 효율을 갖는지 정량적으로 측정했다. 이를 통해 루프형 아키텍처 설계 시 단순한 손실값 감소를 넘어 실제 추론 비용 대비 성능 이득이 있는지 판단할 수 있는 기준을 제공한다.
핵심 기여
재귀 등가 지수 phi 제안
루프형 모델의 반복 1회가 비재귀 모델의 고유 파라미터 몇 개와 대등한 성능을 내는지 측정하는 지수 phi를 정의했다. 실험 결과 기본 설정에서 phi=0.46으로 나타났으며, 이는 반복 1회가 고유 파라미터 약 0.5개의 가치를 가짐을 의미한다.
루프형 모델 전용 공동 스케일링 법칙 수립
116회의 사전 학습 실험을 통해 파라미터 수, 데이터 크기, 재귀 횟수를 통합한 새로운 스케일링 법칙을 도출했다. 이 법칙은 루프형 모델의 최적 파라미터 및 토큰 할당량을 예측하는 데 사용된다.
아키텍처 개선 도구로서의 phi 검증
Truncated Backpropagation 적용 시 phi가 0.38로 하락하고, Hyperconnections 적용 시 0.65로 상승함을 확인했다. 이는 phi가 모델의 루프 메커니즘 품질을 평가하는 유효한 지표임을 입증한다.
핵심 아이디어 이해하기
기존의 Transformer는 레이어마다 고유한 파라미터를 가지므로 모델이 깊어질수록 메모리 점유율이 선형적으로 증가한다. 반면 루프형 모델은 동일한 레이어를 여러 번 재사용하여 메모리를 아끼면서 깊은 연산을 수행하려 하지만, 과연 '재사용된 레이어'가 '새로운 레이어'만큼의 성능 기여를 하는지는 미지수였다.
이 논문은 Chinchilla 스케일링 법칙을 확장하여 '재귀 등가 지수(phi)'라는 개념을 도입했다. 만약 phi가 1이라면 반복 사용이 새로운 레이어 추가와 완전히 동일한 효과를 내는 것이고, 0이라면 반복해도 성능 이득이 전혀 없는 상태를 의미한다. 연구팀은 실험을 통해 실제 phi 값이 0.46임을 밝혀냈다.
결과적으로 루프형 모델은 동일한 연산량(FLOPs)을 투입했을 때 비재귀 모델보다 더 넓은(wider) 구조를 선택해야 최적의 성능을 낼 수 있다. 이는 파라미터 공유로 인한 표현력 손실을 모델의 너비를 키워 보상해야 함을 수학적으로 증명한 것이다.
관련 Figure

각 연산량 수준에서 루프형 모델(r=2, 4, 8)의 최적점(별표)이 비재귀 모델(r=1)보다 더 큰 파라미터 수(오른쪽) 쪽으로 이동함을 보여준다. 이는 루프형 모델이 최적 성능을 위해 더 넓은 구조를 가져야 함을 의미한다.
다양한 연산량 예산(Compute budget) 하에서 모델 크기에 따른 검증 손실 곡선
방법론
연구진은 Prelude-Recur-Coda 템플릿을 사용하여 유효 깊이(Leff)를 20으로 고정한 채 재귀 횟수 r을 {1, 2, 4, 8}로 변화시키며 실험했다. r=1은 일반적인 비재귀 모델이며, r=8은 2개의 레이어를 8번 반복하여 총 16개의 재귀 레이어를 실행하는 구조이다.
전체 파라미터 N을 한 번만 실행되는 부분(Nonce)과 반복 실행되는 부분(Nrec)으로 나누고, 유효 파라미터 수 Neff를 [Nonce + r^phi * Nrec]으로 정의했다. 여기서 r^phi는 r번 반복되는 재귀 블록이 실제로는 r의 phi 제곱만큼의 고유 블록 역할을 한다는 가정을 담고 있다.
손실 함수 L은 E + A * Neff^(-alpha) + B * D^(-beta) 형태로 모델링된다. 여기서 Neff에 phi가 포함되어 있어, 학습 데이터 D와 실제 파라미터 구성에 따른 손실값의 변화를 phi라는 단일 지표로 수렴시킬 수 있다. 최적화 과정에서는 Huber loss를 최소화하여 phi를 포함한 6개의 파라미터를 동시에 추정한다.
주요 결과
기본 모델 아키텍처에서 phi는 0.46으로 측정되었다. 이는 r=4인 410M 루프형 모델이 성능 면에서는 580M 비재귀 모델과 대등하지만, 학습 비용은 1B 비재귀 모델만큼 발생함을 의미한다. 즉, 루프형 모델은 메모리 효율성은 높지만 연산 효율성(Compute-efficiency) 면에서는 손해를 본다.
Hyperconnections를 도입했을 때 phi는 0.65까지 상승했다. 이는 재귀 블록 간의 정보 흐름을 개선함으로써 루프의 가치를 높일 수 있음을 보여준다. 반면 Truncated Backpropagation은 학습 연산량을 줄여주지만 phi를 0.38로 떨어뜨려 루프 메커니즘의 학습 품질을 저하시키는 것으로 나타났다.
다운스트림 벤치마크 분석 결과, 상식 추론이나 독해 능력에서는 루프형 모델이 비재귀 모델과의 격차를 좁히는 모습을 보였으나, 지식 암기(Parametric Knowledge)가 중요한 작업에서는 고유 파라미터 수가 적은 루프형 모델이 일관되게 낮은 성능을 기록했다.
관련 Figure

r이 커질수록 실제 고유 파라미터(N)는 급격히 감소하지만, phi=0.46을 적용한 유효 파라미터(Neff)는 그보다 완만하게 감소한다. 이는 파라미터 공유로 인한 손실이 재귀를 통해 일부 복구됨을 시각화한다.
재귀 횟수 r 증가에 따른 고유 파라미터 비율과 유효 파라미터 비율의 변화를 보여주는 그래프
기술 상세
아키텍처는 decoder-only Transformer를 기반으로 하며 RMSNorm, RoPE, Squared-ReLU MLP를 채택했다. 모든 모델은 20개의 유효 레이어를 가지며, r 값에 따라 재귀 블록 내의 레이어 수를 조절하여 토큰당 실행되는 총 레이어 수를 일치시켰다. 학습에는 MuonH 옵티마이저를 사용하고 FineWeb-Edu 데이터셋으로 사전 학습을 진행했다.
스케일링 법칙 피팅 시 Huber loss(delta=10^-3)를 사용하여 이상치에 강건한 추정을 수행했으며, L-BFGS-B 알고리즘으로 500회의 무작위 재시작을 통해 전역 최적해를 찾았다. phi 값의 신뢰 구간은 95% block bootstrap을 통해 [0.41, 0.53]으로 산출되었다.
한계점
본 연구는 유효 깊이를 20개 레이어로 고정한 단일 아키텍처 구성에서 수행되었다. 레이어 배분 방식이나 Prelude/Coda의 크기 변화에 따라 phi 값이 변할 수 있으며, 매우 큰 규모의 모델이나 더 많은 재귀 횟수(r > 16)에서의 스케일링 거동은 아직 검증되지 않았다.
실무 활용
루프형 언어 모델을 설계하거나 학습할 때, 투입되는 연산량 대비 실제 성능 이득을 정량적으로 계산할 수 있는 프레임워크를 제공한다.
- 추론 시 메모리 제약이 엄격한 환경(온디바이스 AI)에서 최적의 재귀 횟수 결정
- 새로운 재귀 아키텍처나 학습 기법(예: Hyperconnections)의 실질적 효율성 평가 지표로 활용
- 고정된 추론 비용 하에서 모델 너비(Width)와 재귀 횟수 간의 최적 트레이드오프 설계
코드 공개 여부: 공개
코드 저장소 보기키워드
코드 예제
F_fwd(r) = 2 * ((n_prelude + r * n_recur + n_coda) * n_b + r * n_i)
# Leff = n_prelude + r * n_recur + n_coda = 20 fixed
# F_fwd(r) ≈ F_fwd(1)재귀 횟수 r에 관계없이 토큰당 추론 연산량(FLOPs)이 일정하게 유지됨을 보여주는 수식
L(Nonce, Nrec, D, r) = E + A * (Nonce + r**phi * Nrec)**(-alpha) + B * D**(-beta)재귀 횟수 r과 재귀 등가 지수 phi를 포함하여 새롭게 제안된 공동 스케일링 법칙 수식
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.