发表时间:22 Feb 2024
论文链接:https://arxiv.org/pdf/2402.14289
作者单位:SKLCCSE, Institute of Artificial Intelligence, Beihang University, Beijing, China
Motivation:当前的大语言模型的参数量太大了,作者想通过实验验证是否需要这么多的参数(于是做了巨多的消融实验),想尝试能不能让参数量小一点,还能达到相当的性能。证明了使用小型 LLM 的情况下,只要模块组合方式和训练数据质量高,也能取得和大型 LLM 相当的效果。
解决方法:
虽然不断扩大模型的容量能够提升模型对很多不同任务的解决能力,但训练庞大的模型需要很多的资源,如 Flamingo 为 80b,PaLM-E 为 562b,所以现在有很多 LLM 的模型也在降低模型参数量,降低到 7B 或 3B,但性能没有下降很多。所以 LMM 也出现了类似的方向,如 OpenFlamingo 和 LLaVA 所做的模型是从 3b 到 15b,这样也能提升模型的效率和可部署性。基于此,本文作者提出了 TinyLLaVA,主要贡献如下:
-
一个利用小型 LLM 实现大型 LMM 的模型框架,框架由视觉编码器、小规模 LLM 解码器和中间连接器以及training pipelines组成的框架。
-
作者探究了不同的 vision encoder、connector、language model、training data、training recipes(配方) 组合起来的效果。