大开眼界?探索多模态模型种视觉编码器的缺陷。

论文中指出,上面这些VQA问题,人类可以瞬间给出正确的答案,但是多模态给出的结果却是错误的。是哪个环节出了问题呢?视觉编码器的问题?大语言模型出现了幻觉?还是视觉特征与语言模型间的特征没有对齐?
作者将上述问题分成了9个类别(通过将涉及的问题和选项提供chatgpt,让chatgpt将这些问题归类)

- 通过实验发现,增加模型规模/训练数据的数量,多模态模型仅在颜色/外观任务和物体状态/状况这两项任务上的表现有提升。
- 通过实验发现,两张很相似的图片(如下图的两只蝴蝶),视觉编码器(CLIP)给出两张图片的相似度很高,但是自编码器(DINO)给出的相似度不是很高,作者定义这两幅图片为
CLIP-blind pairs

clip和多模态模型在这9项任务上的表现

通过增加自监督特征,多模态模型的能力有了提升

上图种左边是目前的多模态

论文分析了多模态模型在视觉问答(VQA)中的错误,提出视觉编码器、大语言模型和特征对齐可能存在的问题。实验显示模型规模和数据影响某些任务性能,CLIP和DINO在相似度评估上差异明显。MMVP-VLM测试集用于评价模型改进后的表现。
最低0.47元/天 解锁文章
222

被折叠的 条评论
为什么被折叠?



