Quantifying and Mitigating Unimodal Biases in Multimodal Large Language Models: A Causal Perspective

本文是LLM系列文章,针对《Quantifying and Mitigating Unimodal Biases in Multimodal Large
Language Models A Causal Perspective》的翻译。

从因果关系的角度量化和减轻多模态大语言模型中的单模态偏误

摘要

大型语言模型(LLM)的最新进展促进了多模态LLM(MLLM)的发展。尽管MLLMs具有令人印象深刻的能力,但它们往往过度依赖单一模式的偏见(如语言偏见和视觉偏见),导致在复杂的多模态任务中出现错误答案。为了研究这个问题,我们提出了一个因果框架来解释视觉问答(VQA)问题中的偏见。在我们的框架内,我们设计了一个因果图来阐明MLLMs对VQA问题的预测,并通过深入的因果分析评估偏差的因果效应。受因果图的启发,我们引入了一个新的MORE数据集,由12000个VQA实例组成。该数据集旨在挑战MLLM的能力,需要多跳推理和克服单峰偏差。此外,我们提出了两种策略来减轻单峰偏差并增强MLLM的推理能力,包括用于有限访问MLLM的分解验证-应答(DeVA)框架和通过微调来细化开源MLLM。广泛的定量和定性实验为未来的研究提供了宝贵的见解。我们的项目页面位于https://opencausalab.github.io/MOR

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值