本文是LLM系列文章,针对《HALLUSIONBENCH: You See What You Think? Or You Think What You See?》的翻译。
HALLUSIONBENCH:你看到你的想法了吗?或者你所见所想?
摘要
大型语言模型(LLM)在与视觉模型对齐并集成到视觉语言模型(VLM)中后,可以在图像推理任务中带来令人印象深刻的改进。最近发布的GPT-4V(ison)、LLaVA-1.5等表明了这一点。然而,这些SOTA LVLM中的强语言先验可能是一把双刃剑:它们可能忽略图像上下文,仅依赖(甚至矛盾的)语言先验进行推理。相反,VLM中的视觉模块比LLM弱,可能导致误导性的视觉表示,然后LLM将其转化为自信的错误。为了研究这两种类型的VLM错误,即语言幻觉和视觉幻觉,我们策划了“HALLUSIONBENCH,”一个图像上下文推理基准,即使对GPT-4V和LLaVA-1.5来说仍然具有挑战性。我们对HALLUSIONBENCH中的例子进行了详细分析,为VLM的幻觉或幻觉以及未来如何改进它们提供了新的见解。基准测试和代码库将发布在https://github.com/tianyi-lab/HallusionBench。
1 引言
2 用GPT-4V和LLaVA-1.5分析HALLUSIONBENCH
3 结论
在本报告中,我们深入研究了与GPT-4V和LLaVA1.5相关的各种示例和故障案例。通过对这些例子的详细研究,我们希望为未来的研究提供我们的观察结果和关键见解:
- 1.当GPT-4V和LLaVA-1.5对HALLUSIONBENCH中
本文分析了GPT-4V和LLaVA-1.5在处理图像上下文推理任务时存在的语言幻觉和视觉幻觉问题,通过HALLUSIONBENCH基准揭示了模型的局限性,并提出了改进方向。
已下架不支持订阅
1884

被折叠的 条评论
为什么被折叠?



