学习笔记【多模态理解任务的半壁江山CLIP】

  • 任务:计算图片和文本之间的相似度

1. CLIP

Training
  • 有监督的对比学习。通过两个encoder(Image Encoder、Text Encoder)分别对图片和文本编码。模型的训练任务是输入N个图片和N个文本的特征表示,将这些特征两两做相似度计算形成一个 N ∗ N N*N NN的相似度矩阵,优化目标是相似度矩阵为单位阵
    在这里插入图片描述
    效果很好的原因之一:数据量巨大,400million
Application

(1)zero-shot image classification

  • 将最后的输出特征映射到分类的矩阵 W W W可以看做分类的类别特征,线性映射(乘以矩阵)可以看成是类别特征与输出特征进行相似度计算。
  • W W W换成对应类别的特征表示,而不再是可训练参数。将类别例如cat、dog等传入Text Encoder编码得到对应的特征;再将图像传入Image Encoder得到相应的特征,然后计算相似度
  • Prompt Engineering:在实际操作中并不是直接将类别输入Text Encoder,而是会加入额外的一些提示。在CLIP中一般默认使用“an image of xxx”这样的模板。文本的选择有时候会影响分类的正确性
  • 思考:语言指导的神经网络具有更好的泛化性

(2)re-ranking
CLIP虽然不能直接生成图像或文本,但是可以对生成的东西进行打分

  • DALLE:给定文本生成图片(text->image),使用CLIP进行后处理。对生成的若干候选图片进行打分(文本与图片计算相似度)并选择
  • CLIP-Score:给定图片生成文本(image->text,image caption),文章发现CLIP的打分与人工标注BUEU Score有高度的相关性,提出可以将CLIP-Score作为无监督的评测指标
改进工作
  • data efficient:改进数据使用效率。用预训练好的encoder进行初始化
  • 提升速度:知识蒸馏

2. 另外半壁

  • 在做图片和文本的理解任务时,不能分别对图片和文本进行编码,之后再接下游任务,因为这样做缺少了两种模态特征之间的交互。基于此,有一些工作提出在两个encoder之间进行信息的交互。
  • 但是目前还并没有一项标志性的工作。基本上是对encoder得到的embeddings之间做attention,或者concate之后输入bert_base之类的模型
    在这里插入图片描述
    学习视频参考:多模态理解类任务的标志性工作CLIP带给我们的启发
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值