Spatial-DISE: A Unified Benchmark for Evaluating Spatial Reasoning in Vision-Language Models

本文提出了名为 Spatial-DISE 的统一基准,通过基于认知科学的四象限分类法(涵盖内在/外在及静态/动态推理)构建了大规模数据集,旨在评估并揭示当前视觉语言模型在空间推理能力上尤其是多步多视图推理方面与人类水平的显著差距。

Xinmiao Huang, Qisong He, Zhenglin Huang, Boxuan Wang, Zhuoyun Li, Guangliang Cheng, Yi Dong, Xiaowei Huang

发布于 2026-02-25
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一份给 AI 的“空间智力体检报告”

想象一下,现在的 AI(特别是那些能看图说话的“多模态大模型”)就像是一个视力极好但脑子有点“死板”的超级学霸。它们能一眼认出图片里是猫还是狗,能描述风景,但一旦让它们玩一些需要“在脑子里转圈圈、折纸、搭积木”的智力游戏,它们就经常晕头转向。

这篇论文来自利物浦大学的研究团队,他们做了一件很酷的事情:给 AI 们设计了一套全新的、更难的“空间思维考试”,并发现它们离人类的水平还有很大差距。

下面我用几个生活中的比喻来拆解这篇论文的核心内容:

1. 为什么要搞这个新考试?(现有的考试太简单了)

以前的考试(Benchmark)就像是在考 AI“认字”。

  • 旧考题:图片里有个杯子在桌子左边,问“杯子在桌子的哪边?”(这是静态的,一眼就能看出来)。
  • AI 的表现:AI 答得挺好,因为它只是记住了“左边”这个词和杯子的位置关系。

但人类的空间思维不仅仅是“认位置”,还包括**“在脑子里动手”**。

  • 新考题(Spatial-DISE)
    • 折纸题:给你一张画好图案的纸,问“如果我把这张纸对折两次,再在中间扎个洞,展开后会有几个洞?洞在哪里?”
    • 旋转题:给你一块积木,问“如果我把这块积木在脑子里转 90 度,它看起来像选项里的哪一个?”
    • 拼图题:给你一堆散落的积木块,问“哪几块能拼成左边那个复杂的形状?”

比喻:以前的考试是考你**“看照片认人”,现在的考试是考你“在脑海里玩魔方”**。

2. 这个新考试叫什么?(Spatial-DISE)

作者把空间思维分成了四个象限,就像一张**“能力地图”**:

  • 内在 vs. 外在:是研究物体自己(比如积木怎么转),还是研究物体之间的关系(比如杯子在桌子左边)?
  • 静态 vs. 动态:是不动的(认位置),还是需要动脑筋模拟变化的(折叠、旋转)?

他们发现,现有的考试大多只考“静态”的,而人类最擅长的“动态”思维(比如想象物体旋转)被严重忽略了。所以,他们造了一个包含1.2 万道题目的大题库,专门用来测试这种“动态思维”。

3. 考试结果怎么样?(AI 很惨,人类很强)

作者找了 32 个最顶尖的 AI 模型(包括 GPT-4o, Gemini, Claude 等)来参加考试。

  • 人类成绩:平均分 76.8%(人类很擅长玩这种空间游戏)。
  • AI 成绩:平均分只有 28.4%( barely 比瞎猜的 25% 高一点点)。

比喻:这就像让一群视力超群的机器人去参加**“折纸大赛”**。它们能看清纸张的纹理,但一旦让它们想象“折叠后会发生什么”,它们的脑子就“短路”了。

4. AI 到底哪里出了问题?(不是眼睛瞎,是脑子笨)

作者仔细分析了 AI 做错的题目,发现它们不是“看错了”(比如把红色看成蓝色),而是**“想错了”**。主要有三个毛病:

  1. 不懂基本规则(Failure in Rule Application)
    • 比喻:就像下棋时,明明知道“马走日”,AI 却觉得马可以“走田”。在立方体题目中,AI 经常搞混“相邻面”和“相对面”的关系,违反了基本的几何常识。
  2. 记不住过程(Failure in Mental Simulation)
    • 比喻:就像让你在脑海里玩“俄罗斯方块”。当你把方块旋转、下落时,你需要记住每一步的变化。AI 就像是一个记性极差的魔术师,折了一次纸,它就忘了刚才折了几层;再折一次,它彻底晕了,不知道展开后会有几个洞。它缺乏“空间工作记忆”。
  3. 顾头不顾尾(Failure in Holistic-Local Processing)
    • 比喻:AI 看东西只看局部,不看整体。它可能看到积木的一个角很像,就以为整个积木是对的,却忽略了其他部分拼不上。它无法像人类一样,在“整体结构”和“局部细节”之间灵活切换。

5. 训练一下能变好吗?(有点用,但不够)

作者把 AI 用这 1.2 万道题专门“特训”了一下(微调)。

  • 结果:AI 的成绩确实提高了,从 26% 涨到了 47% 左右。
  • 但是:还是远远达不到人类的 76%。而且,AI 似乎只是学会了“背题”或者“套公式”,并没有真正学会像人类那样灵活地理解空间关系

总结:这篇论文告诉我们什么?

这篇论文就像给 AI 行业敲了一记警钟:

“现在的 AI 虽然能‘看’懂世界,但还不会‘想’懂世界。”

它们目前更像是一个超级照相机,而不是一个拥有空间想象力的工程师。要让 AI 真正像人类一样去操作机器人、驾驶汽车或设计建筑,我们不仅要教它们“看”,更要教它们如何在脑子里构建一个可以旋转、折叠、拆解的虚拟世界

一句话总结:Spatial-DISE 是一个全新的、更难的“空间智力测试”,它揭穿了当前 AI 在“动脑筋”方面的短板,告诉我们要想造出真正的智能机器人,还得在“空间想象力”这个领域继续死磕。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →