핵심 요약
기존의 확산 기반 로봇 제어 방식은 전문가의 행동을 단순히 흉내 내는 데 그쳐 새로운 환경에 적응하는 능력이 부족했습니다. 이 논문은 확산 모델 내부에 숨겨진 보상 체계를 수학적으로 증명하고 추출함으로써, 로봇이 단순 모방을 넘어 스스로 학습하고 낯선 상황에서도 더 똑똑하게 대처할 수 있는 길을 열었습니다.
왜 중요한가
기존의 확산 기반 로봇 제어 방식은 전문가의 행동을 단순히 흉내 내는 데 그쳐 새로운 환경에 적응하는 능력이 부족했습니다. 이 논문은 확산 모델 내부에 숨겨진 보상 체계를 수학적으로 증명하고 추출함으로써, 로봇이 단순 모방을 넘어 스스로 학습하고 낯선 상황에서도 더 똑똑하게 대처할 수 있는 길을 열었습니다.
핵심 기여
ENERGYFLOW 프레임워크 제안
생성적 행동 모델링과 역강화학습(IRL)을 통합하여, 노이즈 제거 필드의 그래디언트로 정의되는 스칼라 에너지 함수를 파라미터화하는 구조를 설계했다.
Score-Reward 등가성 이론적 증명
최대 엔트로피 최적성 조건 하에서 확산 모델이 학습하는 Score Function이 전문가의 Soft Q-function 그래디언트와 비례함을 수학적으로 입증하여 적대적 학습 없이 보상 추출이 가능함을 보였다.
보존장 제약을 통한 일반화 성능 향상
학습된 필드를 보존장(Conservative Field)으로 제한함으로써 가설 복잡도를 줄이고 분포 외(OOD) 데이터에 대한 일반화 경계를 강화했다.
Centered Shaping 전략 도입
상태 의존적 편향을 제거하기 위해 기준 분포 하의 기대 에너지를 차감하는 Centered Shaping 기법을 제안하여 강화학습용 보상 신호의 분산을 낮췄다.
핵심 아이디어 이해하기
기존의 Diffusion Policy는 노이즈가 섞인 행동에서 노이즈를 제거하여 전문가의 행동을 복원하는 Score Matching 방식을 사용한다. 이는 전문가의 행동 분포를 잘 따라 하지만, 왜 그 행동이 좋은지에 대한 '의도'나 '보상' 개념이 없어 학습 데이터에 없는 상황이 오면 대처하기 어렵다는 한계가 있다.
ENERGYFLOW는 이 문제를 해결하기 위해 물리적인 에너지 개념을 도입한다. 모델이 직접 노이즈를 예측하는 대신, 특정 상태와 행동에 대한 '에너지 값'을 출력하는 함수를 먼저 정의한다. 그리고 이 에너지의 경사면(Gradient)을 따라가는 방향이 곧 노이즈를 제거하는 방향이 되도록 설계한다. 이렇게 하면 모델은 자연스럽게 전문가가 선호하는 행동일수록 낮은 에너지를 갖도록 학습하게 된다.
이 과정에서 핵심은 '보존장(Conservative Field)' 제약이다. 에너지가 경로에 상관없이 일정하게 유지되어야 한다는 물리적 원칙을 모델에 강제함으로써, 모델이 복잡한 노이즈 패턴을 억지로 외우는 대신 논리적이고 매끄러운 에너지 지형을 그리도록 유도한다. 결과적으로 로봇은 학습하지 않은 위치에서도 에너지가 낮은 방향(정답에 가까운 방향)을 더 정확하게 찾아낼 수 있게 된다.
방법론
ENERGYFLOW는 스칼라 에너지 함수 E_phi(o, a)를 파라미터화하며, Score Function S_phi를 -grad_a E_phi로 정의한다. 이를 통해 학습된 필드가 항상 보존적(Conservative)임을 보장하며, Denoising Score Matching 목적 함수를 최소화하여 에너지 지형을 학습한다.
학습 과정에서는 분산 폭발(Variance-Exploding) 설정을 따르며, 노이즈 스케줄 sigma(t)에 따라 오염된 행동 a_t를 입력받아 grad_a_t E_phi(a_t, s, t)를 계산한다. [상태 s와 노이즈 섞인 행동 a_t를 입력으로] -> [에너지 함수의 행동에 대한 편미분을 수행해] -> [Score 벡터를 얻고] -> [이 값이 실제 주입된 노이즈와 일치하도록 가중치를 갱신한다].
추출된 에너지를 강화학습 보상으로 쓰기 위해 Centered Shaping 기법을 적용한다. r_phi(a, s) = -[E_phi(a, s, gamma) - E_a'~N(0,I)[E_phi(a', s, gamma)]] 식을 사용한다. [특정 행동의 에너지에서] -> [가우시안 분포에서 샘플링된 참조 행동들의 평균 에너지를 빼서] -> [상태별 상대적 선호도 점수를 얻고] -> [이를 강화학습의 보상 신호로 활용한다].
관련 Figure

기존 방식(a)은 노이즈를 직접 예측하지만 에너지 표현이 없는 반면, ENERGYFLOW(b)는 스칼라 에너지 함수를 학습하고 그 그래디언트를 통해 행동 생성과 보상 신호 추출을 동시에 수행함을 보여준다.
기존 Diffusion Policy와 ENERGYFLOW의 구조적 차이 비교 다이어그램
주요 결과
RoboMimic과 Meta-World 벤치마크의 10개 작업에서 실험한 결과, ENERGYFLOW는 평균 성공률 93.8%(RoboMimic)와 92.5%(Meta-World)를 기록하며 기존 Diffusion Policy(91.2%, 90.7%)를 능가했다. 특히 ToolHang과 같은 복잡한 조작 작업에서 성능 향상이 두드러졌다.
분포 외(OOD) 일반화 실험에서 초기 위치 섭동(Perturbation)이 커질수록 기존 모델들은 성능이 급격히 하락했으나, ENERGYFLOW는 보존장 제약 덕분에 훨씬 완만한 성능 저하를 보이며 강건함을 입증했다. 또한 추출된 에너지 보상을 SAC 알고리즘에 적용했을 때, Sparse Reward나 Raw Energy를 사용한 경우보다 훨씬 빠르고 안정적인 학습 곡선을 보여주며 Oracle 보상에 근접한 성능을 달성했다.
관련 Figure

Centered Energy 보상이 Sparse Reward나 Raw Energy보다 훨씬 빠르게 Oracle 성능에 도달함을 보여주며, 제안된 보상 추출 방식의 효과를 입증한다.
다양한 보상 신호를 사용한 SAC 강화학습 성능 비교 그래프
기술 상세
ENERGYFLOW는 Diffusion Policy의 1D Conditional U-Net 백본을 수정하여 사용한다. 기존의 벡터 출력 헤드를 Global Average Pooling과 3층 MLP로 구성된 스칼라 출력 헤드로 교체하여 단일 에너지 값을 산출하도록 설계했다. 또한 에너지의 2차 미분이 포함되는 Score Matching 학습을 위해 모든 활성화 함수를 Mish와 같은 C2 연속 함수로 대체했다.
이론적으로는 Rademacher Complexity 분석을 통해 보존장 제약이 가설 공간의 복잡도를 출력 차원 d의 제곱근에 비례하던 것에서 표현의 매끄러움(Smoothness) L에 비례하도록 줄여줌을 증명했다. 이는 고차원 행동 공간에서 모델의 일반화 능력을 수학적으로 보장하는 핵심 장치이다. 구현 측면에서는 PyTorch의 autograd.grad를 사용하여 순방향 패스에서 Score를 계산하고 이를 통해 역전파를 수행하는 Differentiable Training 인프라를 구축했다.
한계점
본 논문은 상태 의존적 통합 상수 c(s)를 완전히 제거하지 못해 서로 다른 상태 간의 절대적인 보상 값을 비교하는 데 한계가 있음을 명시했다. 또한 Score Matching 오차가 존재할 경우 보상 추출의 정확도가 Lipschitz 연속성에 따라 제한될 수 있음을 언급했다.
실무 활용
전문가의 시연 데이터만 있는 상황에서 고성능 로봇 제어 정책을 학습시키고, 이를 추가적인 강화학습으로 미세 조정하려는 실무 환경에 즉시 적용 가능하다.
- 복잡한 접촉이 발생하는 로봇 팔의 물체 조작(Grasping, Assembly) 작업
- 시연 데이터가 부족하여 강화학습을 통한 추가 성능 개선이 필요한 시나리오
- 로봇의 작업 환경이 빈번하게 바뀌어 높은 일반화 성능이 요구되는 공정 자동화
코드 공개 여부: 공개
코드 저장소 보기관련 Figure

Lift, Can, Square, Transport, ToolHang 등 다양한 난이도의 조작 작업에서 모델이 성공적으로 동작하는 과정을 시각화한다.
RoboMimic 벤치마크의 5가지 작업 수행 장면

ButtonPress, DrawerOpen 등 도구 사용 및 관절체 조작 작업에 대한 실험 환경을 보여준다.
Meta-World 벤치마크의 5가지 작업 수행 장면
키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.