Multimodal Instruction Tuning with Conditional Mixture of LoRA

本文是LLM系列文章,针对《Multimodal Instruction Tuning with Conditional Mixture of LoRA》的翻译。

摘要

多模态大型语言模型(MLLM)在不同领域的各种任务中表现出了非凡的熟练程度,人们越来越关注提高它们对看不见的多模态任务的零距离泛化能力。多模态指令调整已经成为一种成功的策略,通过指令在不同的多模态任务上微调预训练模型来实现零样本泛化。随着MLLM的复杂性和规模的增长,对低秩自适应(LoRA)等参数高效微调方法的需求变得至关重要,LoRA可以用最少的参数集进行微调。然而,在多模态指令调优中应用LoRA会带来任务干扰的挑战,这会导致性能下降,特别是在处理大量多模态任务时。为了解决这个问题,本文介绍了一种将多模态指令调优与LoRA条件混合(MixLoRA)相结合的新方法。它在LoRA的基础上进行了创新,根据每个输入实例的独特需求动态构建低秩自适应矩阵,旨在减轻任务干扰。在各种多模态评估数据集上的实验结果表明,MixLoRA不仅在相同甚至更高的排名下优于传统LoRA,证明了其在各种多模态任务中的有效性和适应性。

1 引言

2 相关工作

3 LoRA多模态指令调优中的任务干扰

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值