InternVL:论文阅读 -- 多模态大模型(视觉语言模型)


更多内容:XiaoJ的知识星球



InternVL: 扩展视觉基础模型与通用视觉语言任务对齐

图1. 不同视觉和视觉语言基础模型的比较。

(a) 表示传统的视觉基础模型,例如 ResNet 在分类任务上预先训练。

(b) 表示视觉语言基础模型,例如在图像-文本对上预训练的 CLIP。

(c ) 是 InternVL,它将大规模视觉基础模型InternViT-6B与大型语言模型保持一致,并且适用于对比和生成任务。
在这里插入图片描述

Supervised pre - training(监督预训练)
:图像经过视觉编码器(vision encoder),得到分类类别。

Contrastive pre - training(对比预训练)
:图像经过视觉编码器(vision encoder),再通过对比编码器(contrastive encoder)与文本进行对比训练。


1.概述

大型语言模型的快速增长,为多模态AGI(Artificial General Intelligence,通用人工智能)系统带来了更多可能,但视觉和视觉语言基础模型的发展却没跟上。

我们设计了大规模视觉语言基础模型 InternVL, 它首次将大规模视觉编码器与LLMs该模型对齐。该模型在各种通用视觉语言任务上表现出强大的性能,包括视觉感知任务、视觉语言任务和 多模态对话。

目前视觉语言模型(VLLMs)的限制

为了将视觉模型与 LLMs 桥接,现有的视觉语言模型(VLLMs)通常使用轻量级的“glue(粘合层)”,如QFormer或线性投影,来对齐视觉和语言模型的特征,连接视觉和语言模型。

但这种方法存在以下问题:

(1)参数规模差异:LLM参数可达10000亿,而VLLMs的视觉编码器通常只有10亿左右,这可能导致LLM的容量未被充分利用;

(2)表征不一致:视觉模型,基于纯视觉数据进行训练或与BERT系列对齐,与LLM的表征往往不一致;

(3)连接效率低,轻量级且随机初始化的“粘合层”可能无法有效捕捉多模态理解和生成所需的丰富跨模态交互和依赖关系。


2.InternVL整体架构

与传统的纯视觉主干和双编码器模型不同,InternVL有三个关键设计:

  • 参数平衡的视觉和语言组件: 60亿参数视觉编码器( InternViT-6B)+80亿参数的LLM中间件(QLLaMA)

  • 对齐视觉编码器和语言中间件:视觉编码器(InternViT-6B)与LLM中间件(QLLaMA)对齐。

  • 渐进式图像文本对齐:在大规模嘈杂的图像文本数据上启动对比学习,随后过渡到在细粒度数据上生成学习。

1)大型视觉编码器:InternViT-6B

它使用普通视觉转换器(ViT)实现了 InternVL 的视觉编码器。为了匹配 LLMs的规模,我们将视觉编码器扩展到 60 亿个参数,从而产生了 InternViT-6B 模型。

2)语言中间件:QLLaMA。

语言中间件 QLLaMA 旨在协调视觉和语言特征。

QLLaMA 基于预先训练的多语言 LLaMA 开发的,并新增了 96 个随机初始化的可学习查询和交叉注意力层(10 亿个参数)。这种方式使 QLLaMA 能够顺利地将视觉元素集成到语言模型中,从而增强组合特征的连贯性和有效性。

3)训练策略

图3. 所提出的 InternVL 模型的训练策略。
在这里插入图片描述

如图所示,InternVL 的训练包括三个渐进阶段,包括视觉-语言对比训练、视觉-语言生成训练和监督微调。

(1)第一阶段:视觉-语言对比训练

我们进行对比学习,在网络规模的嘈杂图像文本对上将 InternViT-6B 与多语言 LLaMA-7B 对齐。这些数据都是公开的,包括多语言内容,包括 LAION-en、LAIONmulti、LAIONCOCO、COYO、Wukong 等。我们使用这 些数据集的组合,并过滤掉一些质量极低的数据来训练我们的模型。

在训练过程中,我们使用LLaMA-7B对文本进行编码得到文本特征Tf,同时利用InternViT-6B提取视觉特征If。按照CLIP(Contrastive Language-Image Pretraining)的目标函数通过最大化匹配的图像-文本对的相似度,同时最小化不匹配对的相似度,从而学习图像和文本之间的关联。

(2)第二阶段:视觉语言生成训练

我们将InternViT-6B与QLLaMA连接,并采用生成训练策略。QLLaMA继承了第一阶段LLaMA-7B的权重,我们保持InternViT-6B和QLLaMA冻结,仅用过滤后的高质量数据训练新增的可学习查询和交叉注意力层。

我们进一步筛选掉 了质量不高的数据,从第一阶段的49.8亿减少到10.3亿。

沿用BLIP-2的损失函数,该阶段的损失由图像-文本对比 (ITC) 损失、图像-文本匹配 (ITM) 损失和图像基于文本生成 (ITG) 损失三部分组成,这使得查询能够提取强大的视觉表示,并进一步与LLMs对齐特征空间。

(3)第三阶段:监督微调(SFT)

InternVL在创建多模态对话系统时,我们通过 MLP 层将其与 现成的LLM解码器(例如 Vicuna 或 InternLM) 连接起来,并进行监督微调 (SFT)。


3.InternVL应用

图 4. 使用 InternVL 的不同方式。
在这里插入图片描述

通过灵活地结合视觉编码器和语言中间件,InternVL 可以支持各种视觉语言任务,包括对比任务、生成任务和多模态对话。

1)对于视觉感知任务

InternVL 的视觉编码器 InternViT-6B,可以作为视觉任务的支柱。给定一个输入图像,我们的模型可以生成特征图进行密集预测任务,或者使用全局平均池化和线性投影进行图像分类。

2)对于对比任务

如图 4(a)、4(b) 所示,我们引入了两种推理模式:InternVL-CInternVL-G。它们使用视觉编码器,或InternViT和QLLaMA的组合来编码视觉特征。

具体来说,我们将InternViT的视觉特征,或QLLaMA的查询特征进行注意力池化,以计算全局视觉特征If。此外,我们从QLLaMA的[EOS]令牌中提取特征,将文本编码为Tf。通过计算If和Tf之间的相似度分数,我们可以支持图像-文本检索等对比任务。

3)对于生成任务

QLLaMA由于其有大量的参数,本身就具有很有前途的图像描述能力。QLLaMA的查询重新组织了 InternViT-6B 的视觉表示,并作为QLLaMA的前缀文本。后续的文本标记将按顺序逐个生成。

4)对于多模态对话

引入了 InternVLChat,利用 InternVL 作为视觉组件来连接LLMs。为此,我们有两种不同的配置。

  • 一种选择是独立使用 InternViT-6B,如图 4© 所示。

  • 另一种方法是同时使用完整的 InternVL 模型,如图 4(d) 所示。

.


论文《InternVL: Scaling up Vision Foundation Models and Aligning for Generic Visual-Linguistic Tasks》:

  • https://huggingface.co/papers/2312.14238
  • https://arxiv.org/pdf/2312.14238

GitHub:

  • https://github.com/OpenGVLab/InternVL

声明:资源可能存在第三方来源,若有侵权请联系删除!

### 关于LVLM的最新研究论文 对于希望深入了解视觉语言大模型(LVLM)的研究人员而言,存在多个重要资源可以获取最新的研究成果。一项值得注意的工作是由多家机构合作提出的全面评估框架 LVLM-eHub 和 Tiny LVLM-eHub,旨在系统地评测多模态大模型的能力[^1]。 另一个重要的进展来自于 InternVL 的提出,这是一个大规模的视觉语言基础模型,它不仅实现了视觉编码器与大型语言模型之间的对齐,还在多种视觉语言任务中展现了卓越的表现。具体来说,InternVL 使用了一种渐进式的图像-文本对齐策略来优化训练过程,并且在多项基准测试中超越了现有的先进模型,涵盖了从图像分类到多模态对话等多个领域[^3]。 此外,ScreenAgent 经过专门针对屏幕操作场景下的视觉微调后,在指令执行精度等方面达到了很高的水准,特别是在鼠标点击准确性上的改进尤为显著,证明了特定应用场景下进一步提升模型性能的可能性[^4]。 这些工作代表了当前 LVLM 领域的一些前沿探索方向,提供了丰富的理论和技术支持给后续研究者参考和发展。 ```python # 示例代码用于展示如何加载并处理一篇学术文章的内容摘要部分 import requests def fetch_paper_abstract(paper_id): url = f"https://api.example.com/papers/{paper_id}/abstract" response = requests.get(url) if response.status_code == 200: abstract = response.json()['content'] return abstract else: raise Exception("Failed to retrieve paper") print(fetch_paper_abstract('internvl')) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值