TinyLLaVA: A Framework of Small-scale Large Multimodal Models

发表时间:22 Feb 2024

论文链接:https://arxiv.org/pdf/2402.14289

作者单位:SKLCCSE, Institute of Artificial Intelligence, Beihang University, Beijing, China

Motivation当前的大语言模型的参数量太大了,作者想通过实验验证是否需要这么多的参数(于是做了巨多的消融实验),想尝试能不能让参数量小一点,还能达到相当的性能。证明了使用小型 LLM 的情况下,只要模块组合方式和训练数据质量高,也能取得和大型 LLM 相当的效果。

解决方法

虽然不断扩大模型的容量能够提升模型对很多不同任务的解决能力,但训练庞大的模型需要很多的资源,如 Flamingo 为 80b,PaLM-E 为 562b,所以现在有很多 LLM 的模型也在降低模型参数量,降低到 7B 或 3B,但性能没有下降很多。所以 LMM 也出现了类似的方向,如 OpenFlamingo 和 LLaVA 所做的模型是从 3b 到 15b,这样也能提升模型的效率和可部署性。基于此,本文作者提出了 TinyLLaVA,主要贡献如下:

  • 一个利用小型 LLM 实现大型 LMM 的模型框架,框架由视觉编码器、小规模 LLM 解码器和中间连接器以及training pipelines组成的框架。

  • 作者探究了不同的 vision encoder、connector、language model、training data、training recipes(配方) 组合起来的效果。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ming_Chs

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值