A Comprehensive Benchmark for Multimodal Large Language Model Reasoning over Image Sequences

828 篇文章

已下架不支持订阅

Mementos是一个新的基准,用于测试多模态大型语言模型(MLLMs)处理图像序列推理的能力。通过对九种最新MLLMs的评估,发现它们在描述动态信息时存在物体和行为的幻觉问题。研究识别出影响推理的三个关键因素,并提出了未来研究的方向,包括数据集多样化、评估流程优化和幻觉缓解策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Mementos: A Comprehensive Benchmark for Multimodal Large
Language Model Reasoning over Image Sequences》的翻译。

Mementos:基于图像序列的多模态大型语言模型推理的综合基准

摘要

多模态大型语言模型(MLLMs)已经证明能够熟练处理各种视觉语言任务。然而,目前的MLLM基准主要用于评估基于单个图像的静态信息的推理,而现代MLLM从图像序列中推断的能力,这对理解我们不断变化的世界至关重要,但研究较少。为了应对这一挑战,本文介绍了Mementos,这是一种旨在评估MLLMs序列图像推理能力的新基准。Mementos以4761个不同长度的不同图像序列为特征。我们还使用GPT-4辅助的方法来评估MLLM的推理性能。通过仔细评估Mementos上最近的九种MLLMs,包括GPT4V和Gemini,我们发现它们很难准确描述给定图像序列的动态信息,经常导致对象及其相应行为的幻觉/误传。我们的定量分析和案例研究确定了影响MLLMs序列图像推理的三个关键因素:对象和行为幻觉之间的相关性、共现行为的影响以及行为幻觉的复合影响。我们的数据集在https://github.com/umd-huanglab/Mementos上可用。

1 引言

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值