(四十九):UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning

UNIMO是一个统一模态的预训练架构,通过跨模态对比学习(CMCL)结合大规模文本语料库和图像集合,提升视觉和语言的理解与生成能力。CMCL通过文本重写和图像/文本检索增强信息多样性,促进不同层次的语义对齐。实验表明,UNIMO在单模态和多模态任务上表现出色,能有效利用单模态数据增强模型表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 出处:ACL/IJCNLP (1) 2021: 2592-2607
  • 代码:https://paperswithcode.com/paper/unimo-towards-unified-modal-understanding-and
    或者https://github.com/PaddlePaddle/ Research/tree/master/NLP/UNIMO
  • 题目:UNIMO:通过跨模态对比学习实现统一模态理解和生成
  • 主要内容:UNIMO,一个统一模态的前训练体系结构,利用大规模的非配对文本语料库和图像集合进行跨模态学习

Abstract

现有的预训练方法要么侧重于单模态任务,要么侧重于多模态任务,不能有效地相互适应。它们只能使用单模态数据(即文本或图像)或有限的多模态数据(即图像-文本对)。
在这项工作中,我们提出了一个统一模态的训练前架构,即UNIMO,它可以有效地适应单模态和多模态的理解和生成任务。
大规模的自由文本语料库和图像集合是用来改善视觉和文本理解的能力,和跨通道对比学习(CMCL)是利用对齐文本和视觉信息到一个统一的语义空间,在语料库的图像文字对增强相关图片和文字
在丰富的非配对单模态数据的帮助下,我们的模型能够学习更一般化的表示,允许文本知识和视觉知识在统一的语义空间中相互增强。实验结果表明,UNIMO大大提高了多个单模态和多模态下游任务的性能。

1 I

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值