本文是LLM系列文章,针对《AlignGPT: Multi-modal Large Language Models with Adaptive Alignment Capability》的翻译。
摘要
多模态大语言模型(MLLMs)被广泛认为是通用人工智能(AGI)研究的关键。MLLM的核心在于其实现跨模态对齐的能力。为了实现这一目标,当前的MLLM通常遵循两个阶段的训练范式:预训练阶段和指令调优阶段。尽管取得了成功,但这些模型中对齐能力的建模仍存在不足。首先,在预训练阶段,模型通常假设所有图像文本对都是一致对齐的,但事实上不同图像文本对之间的对齐程度是不一致的。其次,目前用于微调的指令包含各种任务,不同任务的指令通常需要不同级别的对齐能力,但之前的MLLM忽略了这些差异化的对齐需求。为了解决这些问题,我们提出了一种新的多模态大型语言模型AlignGPT。在预训练阶段,我们不是平等对待所有图像文本对,而是为不同的图像文本对分配不同级别的对齐能力。然后,在指令调优阶段,我们自适应地组合这些不同级别的对齐能力,以满足不同指令的动态对齐需求。大量的实验结果表明,我们的模型在12个基准测试中取得了有竞争力的性能。