AAAI论文最佳解读|Unsupervised Cross-Domain Image Retrieval via Prototypical Optimal Transport

论文标题

Unsupervised Cross-Domain Image Retrieval via Prototypical Optimal Transport 无监督跨域图像检索的原型最优传输方法

论文链接

Unsupervised Cross-Domain Image Retrieval via Prototypical Optimal Transport论文下载

论文作者

Bin Li, Ye Shi, Qian Yu, Jingya Wang

内容简介

本文提出了一种新颖的无监督跨域图像检索(UCIR)方法,称为ProtoOT,旨在在不同领域中检索共享相同类别的图像,而无需依赖标记数据。以往的UCIR方法通常将问题分解为域内表示学习和跨域特征对齐两个独立任务,然而这种分离的策略忽视了这两个任务之间的潜在协同作用。ProtoOT通过将这两个任务整合到一个统一的框架中,利用K均值聚类方法有效管理UCIR中的分布不平衡问题。通过生成初始原型并近似类边际分布,ProtoOT显著提升了在UCIR场景中的性能。此外,本文还将对比学习引入ProtoOT框架,以进一步提高表示学习的效果。实验结果表明,ProtoOT在多个基准数据集上超越了现有的最先进方法,尤其在DomainNet和Office-Home数据集上分别实现了24.44%和12.12%的性能提升。
在这里插入图片描述

分点关键点

  1. ProtoOT框架

    • ProtoOT是一个新型的最优传输公式,专门针对UCIR设计。它将域内特征表示学习和跨域对齐整合为一个统一的框架,利用K均值聚类来处理分布不平衡问题,从而提高检索性能。
      在这里插入图片描述
  2. 对比学习的引入

    • 在ProtoOT框架中引入对比学习,鼓励语义相似特征之间的局部一致性,同时强制执行特征与不匹配原型之间的分离,从而增强全局区分性。
  3. 实验结果

    • ProtoOT在DomainNet数据集上实现了平均P@200提升24.44%,在Office-Home数据集上实现了P@15提升12.12%。这些结果表明ProtoOT在无监督跨域图像检索任务中的有效性和优越性。
      在这里插入图片描述
  4. 方法的创新性

    • 本文首次提出了一个统一的最优传输框架,能够同时处理域内表示学习和跨域对齐,克服了以往方法的局限性,展现了在无监督学习场景中的潜力。

论文代码

代码链接:https://github.com/HCVLAB/ProtoOT

中文关键词

  1. 无监督跨域图像检索
  2. 最优传输
  3. K均值聚类
  4. 对比学习
  5. 特征表示学习
  6. 跨域对齐

AAAI论文合集:

AAAI论文合集

希望这些论文能帮到你!如果觉得有用,记得点赞关注哦~ 后续还会更新更多论文合集!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值