핵심 요약
기존의 시맨틱 SLAM 시스템은 카메라의 내부 파라미터나 깊이 센서(RGB-D)가 필수적이었으나, 이 논문은 보정되지 않은 일반 단안 RGB 영상만으로도 실시간 3D 지도 생성과 자연어 쿼리 대응이 가능함을 입증했다. 특히 가구가 옮겨지거나 사람이 움직이는 동적인 환경에서도 안정적인 성능을 유지하여 실제 로봇 서비스와 AR/VR 분야의 활용도를 크게 높였다.
왜 중요한가
기존의 시맨틱 SLAM 시스템은 카메라의 내부 파라미터나 깊이 센서(RGB-D)가 필수적이었으나, 이 논문은 보정되지 않은 일반 단안 RGB 영상만으로도 실시간 3D 지도 생성과 자연어 쿼리 대응이 가능함을 입증했다. 특히 가구가 옮겨지거나 사람이 움직이는 동적인 환경에서도 안정적인 성능을 유지하여 실제 로봇 서비스와 AR/VR 분야의 활용도를 크게 높였다.
관련 Figure

보정되지 않은 영상에서도 물체의 위치를 3D 공간 상에서 정확히 그라운딩할 수 있음을 보여준다. 왼쪽의 원본 영상과 오른쪽의 시맨틱 특징 지도가 결합되어 실시간으로 동작함을 시각화한다.
RADIO-ViPE 시스템이 단안 RGB 영상에서 '스푼 찾기' 쿼리를 수행하는 모습
핵심 기여
Dense Bundle Adjustment를 통한 시각-언어-기하학적 퓨전
RADIO와 같은 응집형 파운데이션 모델의 고차원 특징값(Embedding)을 기하학적 제약 조건과 함께 Dense Bundle Adjustment 프레임워크 내에서 직접 결합하여 지도 구성의 일관성을 확보했다.
시간적 일관성을 갖춘 적응형 로버스트 커널
Barron Loss를 확장하여 픽셀 단위의 시간적 안정성 필드(Temporal Stability Field)를 정의하고, 정적 표면, 이동 가능한 물체, 움직이는 에이전트를 구분하여 최적화 과정에서 가중치를 조절함으로써 동적 환경 대응력을 강화했다.
보정이 필요 없는 온라인 오픈 보캐브러리 시스템
카메라 보정값, 깊이 센서, 사전 포즈 정보 없이도 원본 RGB 비디오 스트림에서 직접 3D 공간 상의 자연어 그라운딩을 지원하는 실시간 파이프라인을 구축했다.
핵심 아이디어 이해하기
기존의 SLAM은 이미지의 특징점이나 픽셀 강도 차이를 이용해 카메라의 위치를 추정(Odometry)하고 지도를 그린다. 하지만 단순히 기하학적 정보만으로는 '스푼이 어디에 있는가'와 같은 시맨틱한 질문에 답할 수 없으며, CLIP과 같은 언어 모델을 결합하려 해도 2D 이미지의 특징값과 3D 공간의 기하학적 구조를 일관성 있게 통합하는 데 어려움이 있었다.
RADIO-ViPE는 RADIO 모델에서 추출한 고차원 시각-언어 임베딩을 SLAM의 핵심 최적화 과정인 Bundle Adjustment에 직접 주입한다. 이는 단순히 지도 위에 라벨을 붙이는 것이 아니라, 픽셀 간의 의미적 유사성(Semantic Similarity)을 기하학적 재투영 오차(Reprojection Error)와 동일한 에너지 함수 내에서 동시에 최적화하는 방식이다.
특히 동적인 환경 문제를 해결하기 위해 '시간적 안정성' 개념을 도입했다. 여러 프레임에 걸쳐 의미적 특징이 일관되게 유지되는 영역은 정적인 배경으로 간주하여 학습 기여도를 높이고, 특징이 급격히 변하는 영역은 움직이는 물체로 판단하여 최적화 가중치를 낮춤으로써 지도의 오염을 방지한다. 결과적으로 보정되지 않은 일반 영상에서도 8-10 FPS의 실시간 속도로 정밀한 시맨틱 지도를 생성할 수 있게 되었다.
방법론
전체 시스템은 DROID-SLAM의 구조를 기반으로 하며, 여기에 RADIO 파운데이션 모델의 특징 추출기와 새로운 적응형 커널을 통합했다. 입력된 RGB 프레임에서 RADSeg를 통해 특징 지도를 추출하고, 이를 PCA(주성분 분석)로 압축하여 메모리 효율성을 확보한 뒤 Factor Graph의 노드로 추가한다.
핵심 메커니즘인 Joint Bundle Adjustment에서는 광학 흐름(Optical Flow) 기반의 Photometric Term과 RADIO 임베딩 기반의 Embedding Similarity Term을 결합한다. 임베딩 유사도 계산 시, 소스 픽셀 u를 타겟 프레임으로 투영한 좌표 v에서의 임베딩을 선형 보간(Bilinear Interpolation)으로 구한 뒤 코사인 유사도를 계산한다. [두 프레임 간의 임베딩 벡터 입력 → 코사인 유사도 연산 → 1에서 유사도를 뺀 값의 제곱근 산출 → 의미적 불일치 정도를 수치화].
동적 객체 처리를 위해 Temporal Stability Field Si(u)를 계산한다. [연결된 키프레임들 간의 유사도 평균과 분산 입력 → (평균 * (1-분산)) 연산 → 0~1 사이의 안정성 점수 산출 → 값이 1에 가까우면 정적, 0에 가까우면 동적 영역으로 판단]. 이 점수를 Barron Loss의 형상 파라미터 α와 매핑하여, 정적 영역은 L2 Loss(α=2)로, 움직이는 영역은 Cauchy Loss(α→0)로 처리하여 오차의 영향을 차단한다.
관련 Figure

움직이는 사람 영역은 낮은 안정성 점수를 받아 Cauchy Loss 커널이 적용되고, 정적인 배경은 높은 점수로 L2 Loss가 적용되는 메커니즘을 설명한다. 이는 동적 환경에서 오차를 줄이는 핵심 원리이다.
시간적 안정성 필드와 Barron Loss 커널의 관계도
주요 결과
동적 환경 벤치마크인 TUM-RGBD 데이터셋에서 RADIO-ViPEark 모델은 평균 ATE(Absolute Trajectory Error) 1.63cm를 기록하며 Dyna-SLAM(2.00cm)이나 ViPE(2.17cm) 등 기존 SOTA 모델들을 능가했다. 특히 사람이 활발히 움직이는 'fr3/sitting/xyz' 시퀀스에서 0.98cm의 오차를 보여 동적 환경에서의 견고함을 입증했다.
Replica 데이터셋을 이용한 3D 시맨틱 세그멘테이션 실험에서는 배경을 제외한 설정에서 mIoU 24.25%, Acc 59.25%를 달성했다. 이는 카메라 보정값과 깊이 정보를 모두 사용하는 오프라인 모델인 RayFronts(mIoU 39.37%)보다는 낮지만, 보정 없이 실시간으로 동작하는 온라인 시스템 중에서는 최상위권의 성능이다. 또한 PCA를 통한 특징 압축(D=256)이 성능 저하를 최소화하면서도 메모리 사용량을 획기적으로 줄임을 확인했다.
관련 Figure

D=256 설정이 원본 특징(Full)과 거의 동일한 mIoU 및 정확도를 유지하면서도 연산 효율성을 확보할 수 있음을 실험적으로 증명한다.
PCA 차원 수에 따른 세그멘테이션 성능 비교 레이더 차트
기술 상세
아키텍처는 DROID-SLAM의 미분 가능한 Bundle Adjustment 레이어를 확장하여 시맨틱 특징 정렬을 수용하도록 설계되었다. RADIO 모델의 특징값은 고차원이므로 실시간 처리를 위해 초기화 단계에서 수집된 키프레임들을 바탕으로 PCA를 수행하여 256차원으로 압축한다. 이는 구조적 무결성을 유지하면서 연산량을 줄이는 핵심 기법이다.
수학적으로는 Barron Loss의 일반화된 형태를 사용하여 최적화 목적 함수를 구성했다. 기존 SLAM이 단순히 광학적 오차에만 의존했다면, 본 연구는 임베딩 공간에서의 코사인 거리를 에너지 함수에 통합함으로써 텍스처가 부족한 영역에서도 의미적 정보를 바탕으로 정확한 데이터 연관(Data Association)을 수행할 수 있게 했다. 또한 비-키프레임(Non-keyframe)의 포즈는 깊이 추정을 생략하고 광학적 정렬만을 통해 병렬로 계산하여 처리 속도를 높였다.
한계점
벽이나 바닥과 같은 거대한 구조적 클래스를 세그멘테이션할 때 배경 정보가 포함된 설정(With Background)에서는 성능이 저하되는 경향이 있다. 또한 현재 시스템은 8-10 FPS 수준으로 동작하여 고속 이동 상황에서는 제약이 있을 수 있다.
실무 활용
보정되지 않은 일반 카메라 영상만으로 동작하므로, 스마트폰이나 웨어러블 기기(AR 글래스)를 이용한 실시간 공간 이해 및 물체 검색 서비스에 즉시 적용 가능하다.
- AR 글래스를 착용한 사용자가 '내 열쇠 어디 있어?'라고 물었을 때 과거 이동 경로를 바탕으로 3D 위치 안내
- 사전 지도 정보가 없는 낯선 환경에 투입된 로봇이 자연어 명령('주방으로 가서 컵을 찾아라')을 수행하기 위한 탐색
- 유튜브 영상이나 일상적인 브이로그 영상을 분석하여 영상 속 공간의 3D 구조와 사물 배치를 자동으로 인덱싱
코드 공개 여부: 공개
코드 저장소 보기관련 Figure

생성된 3D 지도 내에서 'Table', 'Pillow' 등의 텍스트 쿼리에 해당하는 영역이 빨간색 포인트로 정확히 활성화됨을 보여주며 오픈 보캐브러리 성능을 입증한다.
3D 포인트 클라우드 상에서 특정 물체(테이블, 베개 등)가 쿼리에 의해 강조된 결과
키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.