人工智能咨询培训老师叶梓 转载标明出处
多模态大模型(MLLMs)在处理包含欺骗性信息的提示时容易生成幻觉式响应。尤其是在生成长响应时,仍然是一个未被充分研究的问题。来自 Apple 公司的研究团队提出了MAD-Bench,一个包含850个测试样本的精心策划的基准测试,这些样本分为六类,包括不存在的对象、对象数量、空间关系和视觉混淆等。研究者对流行的MLLMs进行了全面分析,包括GPT-4V、Gemini-Pro以及开源模型如LLaVA-1.5和CogVLM。实验结果显示,GPT-4V在MAD-Bench上的准确率达到75.02%,而其他模型的准确率仅为5%至35%。另外本文提出了一种通过添加额外段落来增强模型在面对欺骗性提示时的鲁棒性的方法,该方法能显著提高模型的准确率。

MAD-Bench
欺骗类别包含六个不同的类别,共计850对图像-提示对,旨在测试MLLMs对欺骗性提示的抵抗力。表1提供了每个类别的统计数据,图2展示了欺骗性提示的示例。
