LLaVA 1.5:Improved Baselines with Visual Instruction Tuning

发表时间:CVPR 2024

论文链接:https://openaccess.thecvf.com/content/CVPR2024/papers/Liu_Improved_Baselines_with_Visual_Instruction_Tuning_CVPR_2024_paper.pdf

作者单位:University of Wisconsin–Madison

主要思想大型多模态模型 (LMM) 最近在视觉指令调整方面显示出令人鼓舞的进展。在本文中,我们提出了第一个系统研究来研究 LLAVA 框架下受控设置下 LMM 的设计选择。我们表明,LLAVA 中的全连接视觉语言连接器非常强大和数据效率。

实现方式LLaVA 1.5和LLaVA在模型架构上基本一致,对LLM模型和跨模态连接器做了修改,但是模型效果逐渐开始炸裂。与LLaVA一样,Vison Token与Language Token指令在同一个特征空间,一起拼接(concantate)一起送进大模型。

LLM模型:LLM语言模型升级为Vicuna v1.5 13B,语言模型参数量更大,效果更好。

Connector:跨模态连接器(对应LLaVA中的线性层),由原来的单个线性层替换为MLP(多层线性层叠加)

Vision Encoder: 输入图像分辨率由224增大为336,使用CLIP ViT-L/336px,对图像细节理解能力更强更高质量的数据:真所谓 Data is All you need!

通过对LLaVA进行两个简单的改进,即MLP 跨模态连接器 和 添加面向学术任务VQA数据集的简单响应格式的提示词(如Answer the question using a single wo

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

KKdlg

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值