李飞飞谢赛宁新作「空间推理」:多模态大模型性能突破关键所在

部署运行你感兴趣的模型镜像
西风 发自 凹非寺
量子位 | 公众号 QbitAI

李飞飞谢赛宁再发新成果:

直接把o1式思考拉至下一个level——多模态大语言模型的空间思维

38d6da39983942aff906787f3d5ac807.gif

这项研究系统评估了多模态大模型的视觉空间智能,结果发现:

当前,即使是最先进的多模态大模型,在空间认知方面与人类相比仍有显著差距,测试中约71%的错误都源于空间推理方面的缺陷,即空间推理能力是当前主要瓶颈

b7fb38100539ce2e0cd97a800ac49ad5.png

更为有趣的是,在这种情况下,思维链、思维树等常用的语言提示技术直接失灵了——

不仅没有提升模型在空间任务上的表现,反而会使性能下降。

而在问答过程中明确生成认知地图则会增强多模态大模型的空间距离能力。

d02bc27b24ef6d4100fa5ee69fdf9beb.png

这项工作阵容非常豪华,合著作者中不仅有李飞飞,还有纽约大学计算机科学助理教授、CV大牛谢赛宁。

而剩下的四位作者,全部共同一作。

fcc4958c4f8cad77df69c1f962dcc5d4.png

这项研究吸引了不少网友的关注,大伙儿一边看论文,一边已迫不及待搓搓手期待2025年的新进展。

56ef1e668b6b55e2146adbce8e6593af.png

多模态大模型的空间思维

虽然当前多模态大语言模型在语言理解和一般视觉任务上取得了显著进展,但在空间认知和理解方面的能力仍未得到充分研究。

反观人类,面对心理旋转测试、挑选家具这些任务时,会同时依赖于空间和视觉思考。

7a491dbfb96b093e2e382bb4e40966dc.gif

多模态大语言模型能否“进行空间思考”?能否构建一个准确的、隐式的“认知地图”来帮助它们回答有关空间的问题?使用多模态大语言模型来增强空间智能的优势和局限性是什么?

为了探索这些问题,团队研究了视觉空间智能

作者解释,之所以在“空间智能”前加上“视觉”一词,是因为空间智能不受感官模式限制,比如盲人也可以通过别的感官感知空间,而该研究专注于视频输入,所以讨论视觉空间智能。

5eb1c2eca4b646cf380acce525e1f8ec.png

VSI-Bench视觉空间智能基准测试集

首先团队提出了一个名为VSI-Bench的基准测试集。

基于之前的计算机视觉工作,团队重新利用现有的空间扫描视频(最初用于3D重建)及其真实标注来自动生成视觉问答(VQA)问题。

具体来说,这个测试集基于ScanNet、ScanNet++和ARKitScenes等数据集中的288个真实室内场景视频,包括住宅、办公室、实验室等各种环境。

团队设计了超5000个问答对,将评测任务分为三大类:

  • 配置型任务:物体计数、相对距离、相对方向、路线规划

  • 测量估计:物体尺寸、房间大小、绝对距离

  • 时空任务:物体出现顺序等

并采用人工审核确保数据质量,消除歧义和错误标注。

a5dc46e785bf7f8bb883d6beb29a5cf8.png

随后,他们全面评估了15种支持视频的多模态大语言模型,开源、闭源的都有。

74af301915337554fd09a207c79a51f8.png

结果,人类在VSI-Bench上的平均准确率达到79%,在配置型和时空任务上准确率更高,处于94%-100%之间。

相比之下,表现最好的闭源模型是Gemini-1.5 Pro,平均准确率为48.8%,开源模型LLaVA-NeXT-Video-72B和LLaVA-OneVision-72B与之相近。

在需要精确估计绝对距离/大小的三个测量任务上,大模型和人类表现差距相对较小。

团队还进一步证实了视频输入对模型性能的重要性,盲测实验中,在绝对距离估计等特定任务上,即使是最先进的模型也难以超越随机基线的表现。

语言视觉两个层面分析模型思维过程

为了深入理解模型的认知机制,团队又从语言和视觉两个层面分析了模型的思维过程。

584648bdfc5498fe8f4642a733cec052.png
5793ac66cf25b5bf32644b96c662f8c3.png

在语言层面,通过让模型进行自我解释,发现它们确实具备不错的视频理解和语言推理能力。

但详细的错误分析显示,超70%的错误源于其空间推理能力的不足

4024418578ef22ceaea8b0dbaad60cd0.png
e49adb72887b7a040dee6d73531ee78d.png

接着,团队用常用的语言提示技术改进,包括思维链、思维树、自洽性。

结果不仅没有提升模型在空间任务上的表现,反而导致了性能下降,也就是说纯粹的语言推理技术难以解决空间认知问题。

在视觉层面,他们又使用认知地图来分析模型的空间记忆能力。

结果显示,模型在理解局部空间关系时表现较好,相邻物体位置关系的准确率达到64%。但随着物体之间距离的增加,模型的空间关系理解能力显著下降。

这说明模型倾向于建立局部空间模型,而不是形成完整的全局空间理解

1e6fd8de4ed0cdb608515dbd2c83e897.png
c6ee6d20b8424b7bb6ba500ff0fd7b80.png

不过,他们研究了一种新思路:

使用认知地图辅助空间推理。

0f68c7a6900bca1778acee499c558774.png

加入这种机制,模型在相对距离任务上的准确率提升了10个百分点,这为提升模型空间智能提供了一个潜在的解决方向。

李飞飞谢赛宁领衔,四位共同一作

论文一经公布,几位作者就激情当起了自个儿的首批自来水(doge)。

谢赛宁表示:

视频理解是下一个前沿领域,但并非所有视频都是相同的。

这项研究探索了多模态大语言模型如何观察、记忆和回忆空间。

5026cb4bf4752ab843566138615f098d.png

“AI教母”李飞飞也转发开麦:

这是人类智能中极为重要的一个方面,2025年还有更多值得期待,推动空间智能的边界!

19135e29002380cacb39a2d9e8f479c1.png

这项研究共同一作有四位,正如李飞飞教授透露,多位都是谢赛宁的学生。

Jihan Yang

5741ac3317879a95fa3a2735ea3ba076.png

Jihan Yang是纽约大学Courant研究所博士后研究员,导师是谢赛宁。在此之前,Jihan Yang于香港大学获得了博士学位,中山大学获得了学士学位。

他的研究兴趣集中在机器学习和计算机视觉领域,特别关注多模态和具身智能。

Shusheng Yang

f94cf7686ba39dbabae991216dcf26b8.png

Shusheng Yang目前是纽约大学博士生。

领英显示,他是华中科技大学校友,曾经在阿里和腾讯有过工作经历。

4db0b3a8ddfad8a133cd640f4db891fa.png

Anjali Gupta

2a464697cadb33f7424746ee7b6aa4cb.png

Anjali Gupta是纽约大学Courant研究所博士生,导师是谢赛宁教授。

她的研究领域是机器学习和计算机视觉,特别是以视觉为中心的多模态大语言模型。

Rilyn Han

305d74a5d45facef3dba458d51661716.png

Rilyn Han来自耶鲁大学,主修计算机科学和经济学,研究主要关注探索多模态大语言模型的能力。

论文链接:https://arxiv.org/pdf/2412.14171
项目主页:https://vision-x-nyu.github.io/thinking-in-space.github.io/
参考链接:
[1]https://x.com/sainingxie/status/1870877202595958791
[2]https://x.com/drfeifei/status/1870881981703291097
[3]https://vision-x-nyu.github.io/thinking-in-space.github.io/

—  —

点这里👇关注我,记得标星哦~

您可能感兴趣的与本文相关的镜像

HunyuanVideo-Foley

HunyuanVideo-Foley

语音合成

HunyuanVideo-Foley是由腾讯混元2025年8月28日宣布开源端到端视频音效生成模型,用户只需输入视频和文字,就能为视频匹配电影级音效

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值