핵심 요약
기존 멀티모달 모델의 공간 지능은 주로 이해 능력에만 초점을 맞추었으나, 이 논문은 이미지를 편집하고 생성하는 과정에서 3D 공간 제약 조건을 준수하는 '생성적 공간 지능(GSI)'의 중요성을 제시합니다. 생성 학습이 모델의 다운스트림 공간 이해 능력까지 직접적으로 향상시킬 수 있음을 입증하여 통합 멀티모달 모델의 새로운 발전 방향을 제시합니다.
왜 중요한가
기존 멀티모달 모델의 공간 지능은 주로 이해 능력에만 초점을 맞추었으나, 이 논문은 이미지를 편집하고 생성하는 과정에서 3D 공간 제약 조건을 준수하는 '생성적 공간 지능(GSI)'의 중요성을 제시합니다. 생성 학습이 모델의 다운스트림 공간 이해 능력까지 직접적으로 향상시킬 수 있음을 입증하여 통합 멀티모달 모델의 새로운 발전 방향을 제시합니다.
핵심 기여
GSI-Bench 프레임워크 도입
생성적 공간 지능(GSI)을 정량적으로 측정하기 위해 공간적으로 접지된 이미지 편집 작업을 수행하는 최초의 벤치마크를 구축함.
GSI-Real 및 GSI-Syn 데이터셋 구축
3D 프라이어 기반의 실제 데이터셋(GSI-Real)과 시뮬레이션 환경을 활용해 정밀한 라벨링이 가능한 대규모 합성 데이터셋(GSI-Syn)을 동시에 제공함.
통합 평가 프로토콜 설계
지시사항 준수(IC), 공간 정확도(SA), 편집 국소성(EL), 외관 일관성(AC)의 4가지 핵심 지표를 통해 모델의 공간 추론 능력을 다각도로 평가함.
생성 학습의 이해 능력 전이 효과 입증
GSI-Syn으로 파인튜닝된 모델이 생성 능력뿐만 아니라 OmniSpatial 및 SAT-Real과 같은 공간 이해 벤치마크에서도 성능 향상을 보임을 확인하며 생성과 이해의 상호 보완성을 증명함.
핵심 아이디어 이해하기
기존의 멀티모달 모델은 이미지를 보고 질문에 답하는 '이해' 영역에서는 발전했으나, 특정 물체를 3D 공간상에서 회전시키거나 이동시키는 '생성' 영역의 공간 지능은 부족했다. 이는 모델이 픽셀 간의 관계는 학습하지만, 물리적인 3D 구조와 기하학적 제약 조건을 내면화하지 못했기 때문이다.
이 논문은 모델이 이미지 내의 객체를 3D 공간의 구성 요소로 인식하도록 유도한다. 각 객체를 중심점(center), 크기(size), 회전(rotation) 값을 가진 3D 엔티티로 정의하고, 이를 카메라 파라미터와 연결하여 2D 이미지 평면에 투영하는 기하학적 토대를 마련한다. 이를 통해 '사과를 왼쪽으로 15cm 이동하라'는 지시를 단순한 픽셀 변화가 아닌 3D 좌표계상의 변환으로 처리하게 한다.
결과적으로 모델은 생성 학습 과정을 통해 공간의 깊이, 객체 간의 가려짐(occlusion), 물리적 안정성 등을 학습하게 된다. 이러한 생성적 훈련은 모델이 세상을 바라보는 방식 자체를 정교하게 만들어, 결과적으로 이미지를 해석하는 이해 능력까지 동반 상승시키는 결과를 낳는다.
방법론
GSI-Bench는 생성적 공간 지능을 측정하기 위해 공간적으로 접지된 이미지 편집(Spatially Grounded Image Editing) 작업을 공식화한다. 입력 이미지 I와 텍스트 지시사항 T가 주어지면, 모델은 3D 변환 Φ3D가 반영된 출력 이미지 I'를 생성해야 한다. 이 과정에서 장면은 객체 집합 {Oi}와 카메라 C로 구성된 3D 표현 S로 모델링된다.
합성 데이터셋인 GSI-Syn 구축을 위해 AI2-THOR 및 MesaTask 시뮬레이터를 활용한다. 장면 초기화 후 가시성 및 물리적 안정성을 검사하여 유효한 작업 후보를 생성한다. [3D 장면 정보 입력 → 물리 엔진 기반의 변환 수행 → 렌더링 결과 출력] 과정을 통해 완벽한 정답(Ground-truth) 이미지를 확보하며, Qwen3-VL-235B와 같은 MLLM을 활용해 품질이 낮은 샘플을 필터링한다.
실제 데이터셋인 GSI-Real은 ScanNet++의 RGB-D 데이터를 기반으로 구축된다. DetAny3D 모델을 사용하여 2D 이미지에서 3D 바운딩 박스와 포즈를 재구성한다. [2D 이미지 입력 → 3D 재구성 알고리즘 적용 → 객체별 3D 좌표 및 라벨 획득] 과정을 거쳐 실제 환경의 복잡성을 반영하며, 최종적으로 인간 검수자가 지시사항의 명확성과 라벨의 정확성을 확인한다.
평가 프로토콜은 네 가지 차원으로 구성된다. Instruction Compliance(IC)는 방향성 등 의미론적 준수 여부를 이진 판정하며, Spatial Accuracy(SA)는 변환된 객체의 기하학적 오차를 측정한다. Edit Locality(EL)는 LPIPS를 사용하여 편집되지 않아야 할 영역의 보존 상태를 계산하고, Appearance Consistency(AC)는 편집된 객체의 고유 속성(색상, 질감 등) 유지 여부를 검증한다.
관련 Figure

합성 데이터(GSI-Syn)는 시뮬레이터를 통해 물리적으로 정확한 정답을 생성하고, 실제 데이터(GSI-Real)는 3D 재구성과 인간 검수를 통해 고품질 라벨을 확보하는 과정을 보여준다. 이 파이프라인은 모델이 공간적 제약을 학습할 수 있는 체계적인 데이터 생성 방식을 설명한다.
GSI-Syn 및 GSI-Real 벤치마크의 데이터 구축 파이프라인 다이어그램
주요 결과
실험 결과, 현재의 최첨단 모델들도 정밀한 공간 생성 작업에서 어려움을 겪는 것으로 나타났다. 폐쇄형 모델 중 Nano Banana와 GPT-img는 GSI-Syn-Table 데이터셋에서 각각 37.03, 33.97의 평균 점수를 기록했다. 오픈소스 모델 중에서는 Emu3.5가 GSI-Real에서 43.52점을 기록하며 가장 우수한 성능을 보였으나, 여전히 복잡한 3D 조작에서는 한계를 보였다.
GSI-Syn을 활용한 파인튜닝 효과는 매우 강력했다. BAGEL 모델을 GSI-Syn으로 학습시킨 결과, GSI-Real 데이터셋에서 평균 점수가 28.46에서 36.28로 7.83포인트 상승했다. 특히 공간 정확도(SA)와 편집 국소성(EL)에서 큰 폭의 개선이 확인되었으며, 이는 합성 데이터에서의 학습이 실제 이미지로 성공적으로 전이됨을 의미한다.
가장 주목할 만한 결과는 공간 이해 능력의 향상이다. 생성 데이터로만 학습했음에도 불구하고, 공간 이해 벤치마크인 OmniSpatial에서 BAGEL+GSI-Syn 모델은 기존 대비 성능이 향상되었다. 특히 공간 상호작용(+2.00%)과 시점 전환(+1.07%) 지표에서 유의미한 이득을 얻었으며, SAT-Real 벤치마크에서도 전체적으로 4.00%의 성능 향상을 달성했다.
관련 Figure

카메라 이동, 객체 삭제, 회전 등 5가지 작업에 대해 Emu3.5, BAGEL, BAGEL+ 모델의 생성 결과를 비교한다. GSI-Syn으로 파인튜닝된 BAGEL+ 모델이 객체의 정체성을 유지하면서도 지시된 공간 변환을 가장 정확하게 수행함을 시각적으로 증명한다.
다양한 공간 편집 작업에 대한 모델별 결과 비교 사진
기술 상세
GSI-Bench는 7가지 정량적 공간 작업(카메라 상대 이동, 객체 상대 배치, 객체 회전, 용기 배치, 시점 제어, 공간 삭제, 객체 스케일링)을 정의하여 모델의 다각도 능력을 검증한다. 각 작업은 3D 기하학적 변환 Φ3D로 엄격하게 정의되어, 단순한 픽셀 통계가 아닌 물리적 법칙에 기반한 평가를 가능하게 한다.
학습 전략 측면에서, 본 연구는 시뮬레이션 데이터(Sim)에서 실제 데이터(Real)로의 간극을 줄이기 위해 대규모의 정밀한 합성 데이터를 활용한 조인트 퍼셉션-제너레이션 학습(Joint Perception-Generation Learning)의 가능성을 탐구한다. BAGEL 아키텍처를 기반으로 자기주의(Self-attention) 메커니즘을 통해 이해 모듈과 생성 모듈 간의 깊은 상호작용을 유도한다.
데이터 구축 파이프라인에서 MLLM의 역할이 강조된다. GSI-Real 구축 시 MLLM은 물리적 오류를 체크하고, 템플릿 기반의 캡션을 자연스러운 문장으로 재작성하며, 최종 생성물의 외관 품질을 검증하는 게이트키퍼 역할을 수행한다. 이는 데이터셋의 확장성과 품질을 동시에 확보하는 핵심 메커니즘이다.
한계점
GSI-Syn-Room 데이터셋의 경우 장면의 복잡성과 공간적 모호성으로 인해 GSI-Syn-Table에 비해 성능 향상 폭이 상대적으로 낮게 나타났다. 또한, 복잡한 논리적 추론이 필요한 작업에서는 명시적인 추론 감독(Reasoning supervision)의 부재로 인해 성능이 소폭 하락하는 경향이 관찰되었다.
키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.