《Prototypical Contrastive Learning-based CLIP Fine-tuning for Object Re-identification》

本文探讨了CLIP在行人重识别中的应用,提出了使用原型对比学习(PCL)损失直接微调CLIP图像编码器的方法,替代prompt learning。研究显示,这种方法在有监督和无监督的重识别任务中提高了CLIP的表现。PCL损失通过使实例靠近其类质心并远离其他质心,促进了区分不同类别的学习。文章还介绍了包含记忆库的模型框架,用于存储每个ID的视觉特征质心。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

简介这也是关于CLIP的一篇用于目标重识别的文章,是以前面写过的一篇CLIP-ReID文章为基础进行的工作,主要是替换掉了text encoder,用一个Memory机制来代替了,只有一阶段。包含了行人重识别,也是基于图像的,个人认为作为拓展还是可以学学
预备知识:CLIP-ReID、prompt learning、prototypical contrastive learning(PCL)

论文作者:Jiachen Li,Xiaojin Gong
作者单位:College of Information Science and Electronic Engineering, Zhejiang University
paper:https://arxiv.org/abs/2310.17218v1
code:https://github.com/RikoLi/PCL-CLIP

ps:这边建议先熟悉一下这个博客:《CLIP-ReID Exploiting Vision-Language Model for Image Re-identification without Concrete Text Label》之后再来看这篇文章。咳咳,进入正题

一、Motivation

  • CLIP模型展现的优越性能,能够学习多种视觉和语言语义概念,并获得显著的迁移能力; 提示学习因其优越的性能和较低的计算成本而受到广泛的关注。
  • 在人员/车辆再识别中,类名不存在,因为类标签是ID的索引,缺乏语义信息。
  • CLIP-ReID中的提示学习本质上是为每个ID学习一个文本特征质心(如下图a);并且CLIP-ReID中引入的图像到文本
### 关于Prototypical Networks for Few-Shot Learning论文 Prototypical Networks 是一种针对小样本学习(Few-Shot Learning)设计的方法,旨在通过构建类别原型来完成新类别的快速识别[^1]。该方法的核心思想是在嵌入空间中为每个类别定义一个原型向量,并利用这些原型向量计算输入样本与各个类别的相似度。 #### 论文下载方式 Prototypical Networks 的原始论文《Prototypical Networks for Few-shot Learning》可以在以下链接找到并下载: - 原始论文地址:[https://arxiv.org/abs/1703.05175](https://arxiv.org/abs/1703.05175) 如果无法直接访问上述链接,可以尝试通过其他学术资源网站获取PDF版本,例如Google Scholar 或者 ResearchGate。此外,一些开源项目也提供了对该论文的解读和实现细节说明[^2][^3]。 #### 可视化的实现 对于可视化部分,作者展示了在嵌入空间中的 t-SNE 图像,其中类别原型用黑色表示,而错误分类的字符则用红色高亮显示[^4]。要实现类似的可视化效果,可以通过以下步骤: 1. **提取嵌入特征** 使用训练好的模型对测试数据进行前向传播,得到每张图像对应的嵌入向量。 2. **应用t-SNE降维** 利用 `sklearn.manifold.TSNE` 将高维嵌入向量投影到二维或三维空间以便绘制图形。 3. **绘图展示** 使用 Matplotlib 或 Seaborn 绘制散点图,在图中标记出不同类别的原型位置以及误分类的数据点。 以下是基于PyTorch实现的一个简单代码示例: ```python import torch from sklearn.manifold import TSNE import matplotlib.pyplot as plt def visualize_embeddings(embeddings, labels, prototypes): """ embeddings: 测试样本的嵌入向量 (NxD) labels: 对应的真实标签 (Nx1) prototypes: 类别原型向量 (KxD) """ all_data = torch.cat([embeddings, prototypes], dim=0).cpu().numpy() tsne = TSNE(n_components=2, random_state=42) embedded_data = tsne.fit_transform(all_data) # 提取样本点和原型点的位置 sample_points = embedded_data[:len(embeddings)] prototype_points = embedded_data[len(embeddings):] # 绘制散点图 plt.figure(figsize=(8, 6)) unique_labels = set(labels.cpu().numpy()) colors = plt.cm.rainbow(np.linspace(0, 1, len(unique_labels))) for i, color in zip(unique_labels, colors): idx = np.where(labels == i)[0] plt.scatter(sample_points[idx, 0], sample_points[idx, 1], c=color, label=f'Class {i}') # 添加原型点标记 plt.scatter(prototype_points[:, 0], prototype_points[:, 1], marker='*', s=200, c='black', label='Prototypes') plt.legend() plt.title('t-SNE Visualization of Embedding Space') plt.show() ``` 此函数接受嵌入向量、真实标签以及类别原型作为输入参数,并生成相应的t-SNE可视化图表。 --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

反卷三明治

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值