论文阅读学习 - Hard-Aware Deeply Cascaded(HDC) Embedding

本文介绍了Hard-Aware Deeply Cascaded (HDC) Embedding,这是一种深度度量学习方法,旨在通过级联多个模型来更有效地处理hard样本。HDC框架通过不同复杂度的子网络捕获不同层次的困难样本,实验中使用GoogleNet的三个分支作为级联模型。在实验部分,HDC在多个图像检索任务上展示了优秀性能。

Hard-Aware Deeply Cascaded(HDC) Embedding

[Paper-version1]

[Paper-version2]

[Code-Caffe]

摘要:

深度度量学习基本目标是,使相同类别的图片间的距离比不同类别的图片间的距离小.

由于优化问题,通常采用 hard example mining 来只对样本的 hard 子集进行处理.

但,hard 是相对于模型而言的,复杂模型将大部分样本作为 easy 的,而简单模型将大部分样本作为 hard 的,二者结合又难以训练.

启发点:

样本是具有不同的 hard 层次的,但难以定义复杂性合适的模型,且能充分的选择 hard 样本.

因此,以级联方式来集合不同复杂度的模型,以充分挖掘 hard 样本;通过复杂度递增的一系列模型来判断样本,且只对被判断为 hard 的样本进行模型更新.

实验是将 GoogleNet 的两个辅助 loss 分支和一个主 loss 作为级联模型,三个分支 loss 的权重都设为1,三个分支的特征组合成最终的样本特征.

1.1 符号说明

  • P={ I+i,I+j} P = { I i + , I j + } ,训练数据集构建的全部 positive 图片对, I+i I i + I+j I j + 是相同标签(label)或者相似标签的图片;
  • N={ Ii,Ij} N = { I i − , I j − } ,训练数据集构建的全部 negative 图片对, Ii I i − Ij I j − 是不同标签(label)或者不相关标签的图片;
  • Gk G k ,第 k k 个子网络模块;假设共 K 个网络模块, G1 G 1 的网络输入是图片,而 Gk,k>1 G k , k > 1 的其它模块的输入是前一个模块的输出; K K 个网络模块级联地组成前馈网络; K 个模型分别对应 K K 个不同深度的子网络;
  • { o i , k + , o j , k + } , 网络 Gk G k 对于 positive 样本对 { I+i,I+j} { I i + , I j + } 计算的输出;
  • { oi,k,oj,k} { o i , k − , o j , k − } , 网络 Gk G k 对于 negative 样本对 { Ii,Ij} { I i − , I j − } 计算的输出;
  • Fk F k ,第 k k 个变换函数,将 o k 转换为低维特征向量 fk f k ,以进行距离计算;
  • { f+i,k,+j,k} { f i , k + , j , k + } Fk F k 对于 positive 样本对 { I+i,I+j} { I i + , I j + } 计算的第 k k 个特征向量;
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值