本文是LLM系列文章,针对《On Domain-Specific Post-Training for Multimodal Large Language Models》的翻译。
摘要
近年来,通用多模态大语言模型(MLLM)迅速发展。然而,将通用 MLLM 应用于特定领域(例如科学领域和工业应用)的探索仍然较少。本文通过后训练系统地研究了 MLLM 的领域适应,重点关注数据合成、训练流程和任务评估。 (1)数据合成:使用开源模型,我们开发了一种视觉指令合成器,可以有效地从特定领域的图像捕获对生成各种视觉指令任务。在增强 MLLM 的特定领域性能方面,我们的综合任务超越了手动规则、GPT-4 和 GPT-4V 生成的任务。 (2) 训练管道:虽然两阶段训练(首先是图像捕获对,然后是视觉指导任务)通常用于开发通用 MLLM,但我们应用单阶段训练管道来增强特定领域训练后的任务多样性。 (3)任务评估:我们通过后训练不同来源和规模的MLLM(例如Qwen2-VL-2B、LLaVA-v1.6-8B、Llama-3.2-11B)在生物医学和食品两个领域进行实验,然后评估 MLLM 在各种特定领域任务上的性能。为了支持 MLLM 领域适应的进一步研究,我们将开源我们的实现。
1 引言
2 相关工作
3 方法
4 实验设置
5 主要结果
6 消融
7 分析
8 结论
本文研究了通过后训练使通用MLLM适应特定领域。为了合成特定领域的视觉指

订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



