paper reading: Tip-Adapter: Training-free Adaption of CLIP for few-shot classification ECCV2022

Tip-Adapter是一种基于CLIP的小样本分类技术,无需额外训练。它使用小样本集构建适配器,通过多模态cache模块存储视觉和文本知识,更新CLIP的先验信息,实现与训练方法相当的性能。

Tip-Adapter: Training-free Adaption of CLIP for Few-shot Classification

提出利用CLIP,不用训练的自适应方法,进行小样本分类。它不仅继承了零样本CLIP的不用训练优势,而且性能与那些需要训练的方法相当。。

Tip-Adapter 方法是利用小样本训练集中的键值缓存模型构建适配器,并通过特征检索更新 CLIP 中编码的先验知识。

对于小样本数据集,利用CLIP提取视觉特征表示,利用one-hot编码真值标签。

在KQV机制下的cache模型,并整合CLIP预训练的知识信息,进而完成小样本分类任务。

框架图:

 

所提出的方法和CLIP-Adapter相比:

多模态cache模块,能够暂存CLIP编码出来的视觉和文本知识。

 

 

由于没有关于“Activate Learning for domain adaption: An Energy - Based Approach”的具体引用内容,下面结合专业知识进行介绍。 主动学习(Active Learning)是一种机器学习范式,其核心思想是让模型主动地选择最有价值的数据进行标注,从而在有限的标注数据下提高模型性能。而领域自适应(Domain Adaptation)旨在解决源领域和目标领域数据分布不一致的问题,使得在源领域训练的模型能够在目标领域上有较好的表现。 “Activate Learning for domain adaption: An Energy - Based Approach”可能是将主动学习的方法应用于领域自适应问题,并且采用了基于能量的方法。基于能量的模型通常定义一个能量函数,通过最小化能量函数来学习数据的分布。在这个研究中,可能利用能量函数来衡量数据的不确定性或者数据在不同领域间的差异,以此为依据选择最有价值的数据进行标注,进而提高领域自适应的效果。 例如,在图像识别任务中,源领域可能是标注好的公开图像数据集,目标领域是实际应用场景下的图像数据,两者的图像分布可能存在差异。通过基于能量的主动学习方法,模型可以选择那些处于领域边界、难以分类的数据进行标注,从而让模型更好地适应目标领域的分布。 ```python # 这里只是一个简单示意的代码框架,并非完整可运行代码 import torch # 定义一个简单的能量函数示例 def energy_function(data): # 这里只是简单的平方和作为能量,实际中会更复杂 energy = torch.sum(data**2) return energy # 假设有一批未标注数据 unlabeled_data = torch.randn(100, 10) energies = [] for data in unlabeled_data: energy = energy_function(data) energies.append(energy) # 选择能量最大的数据进行标注 selected_index = torch.argmax(torch.tensor(energies)) selected_data = unlabeled_data[selected_index] ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值