MILO团队 投稿
量子位 | 公众号 QbitAI
大模型总是无法理解空间,就像我们难以想象四维世界。
空间推理是人类理解三维世界结构的核心认知能力,也是多模态大语言模型(MLLMs)在实际应用中面临的关键挑战之一。
当前大多数方法采用“语言描述式调优”,即通过文本符号让模型学习空间概念,却从未真正“看见”这些概念在视觉上的表现,导致模型出现“视觉文盲”现象——即无法在生成回答时关注到正确的视觉区域。
如图,基线模型在回答关于“木椅”的问题时,其视觉注意力并未集中在目标区域,而是分散在无关区域。这反映出当前MLLMs在空间语义与视觉感知之间缺乏跨模态对齐,无法像人类那样通过心理想象来支撑空间推理。
MILO:为模型植入“空间想象力”
为解决上述问题,由多高校、机构组成的研究团队提出了MILO( Mplicit spat Ia Lw Orld modeling) ,一种隐式空间世界建模范式,通过引入视觉生成反馈,将符号推理与感知经验隐式地结合起来。
1. 从“看到”到“想到”
MILO在传统语言调优的基础上,引入视觉生成调优,形成一个包含两个阶段的训练流程:
模型接收几何变换指令(如“向右转”),并调用视频扩散模型生成对应的新视角图像,从而学习空间变换在视觉上的表现;
在视觉生成调优之后,继续使用空间指令数据对模型进行语言层面的微调。
通过这种方式,MILO使MLLMs能够内化几何变换的视觉表现,建立起类人的隐式空间世界模型。
2. 摆脱绝对坐标,学会相对感知
为了进一步增强模型的几何感知能力,团队提出了RePE(Relative Positional Encoding,相对位置编码),一种基于相对相机位姿变换的位置编码方案。
与传统的绝对坐标系编码不同,RePE不依赖于全局坐标系,而是捕捉相邻帧之间的相对变换,从而具备更好的泛化性与跨数据集适应性。
构建几何世界的“教科书”
研究团队构建了GeoGen数据集,一个包含约2,241个视频和26.7万个“观测-动作-结果”三元组的大规模几何感知生成数据集。
GeoGen涵盖两类核心任务:
根据指令生成相机移动后的新视图;
根据起点和终点生成相机运动路径,要求模型理解场景的整体几何结构。
数据来源包括扫描的3D场景(如ScanNet、ScanNet++)和互联网视频(如RoomTour3D),确保了数据的多样性和真实性。
五大任务全面验证
研究团队在多个基线模型(Video-3D LLM、VG-LLM、RoboRefer)和五大类空间理解任务上验证了MILO的有效性:
在ScanRefer、Multi3DRefer、Scan2Cap、ScanQA、SQA3D等基准上,MILO均取得最优性能,尤其在ScanRefer上Acc@0.25提升3.2%;
在VSI-Bench上平均准确率达61.7%,超越基线VG-LLM 2.2%;
在RefSpatial-Bench的三个子集上全面领先,尤其在未见组合关系任务上提升1.3%。
作者:Meng Cao, Haokun Lin, Haoyuan Li, Haoran Tang, Rongtao Xu, Dong An, Xue Liu, Ian Reid, Xiaodan Liang
单位:Mohamed bin Zayed University of Artificial Intelligence;Sun Yat-sen University; Peking University; Spatial-Temporal AI
论文:http://arxiv.org/pdf/2512.01821