传统的Triplet-based约束的缺点:

如上左图中,xax_axa是锚点,xp1、xp2x_p^1、x_p^2xp1、xp2是正样本,xn1、xn2x_n^1、x_n^2xn1、xn2是负样本。存在这样一种情况,{
xa,xp1,xn1}\{x_a,x_p^1,x_n^1\}{
xa,xp1,xn1}出现在一个batch中,{
xa,xp2,xn2}\{x_a,x_p^2,x_n^2\}{
xa,xp2,xn2}出现在另一个batch中。在各自的batch里的,这几条数据满足Margin Constraint。但从全局的角度来看,{
xa,xn1}\{x_a,x_n^1\}{
xa,xn1}之间的距离甚至要比{
xa,xp2}{\{x_a,x_p^2\}}{
xa,xp2}间的距离要近。
EET(Equidistant and Equidistributed Triplet-based) loss的做法
在Triplet-based Margin Constraint(公式如下)的约束的基础上,
LMC=1N∑a=1N[d(fa,fp)−d(fa,fn)+α]+ L_{MC} = \dfrac{1}{N}\displaystyle\sum_{a=1}^N[d(f_a,f_p)-d(f_a,f_n)+\alpha]^+ L

EET_loss针对传统Triplet-based约束的缺点,提出新的做法:1)确保同类别样本到同一负样本等距;2)最大化类间最小距离;3)保持正负样本等距;4)减小类内最大距离。通过这四个约束,EET_loss优化了深度学习中的相似度学习效果。
最低0.47元/天 解锁文章
1155

被折叠的 条评论
为什么被折叠?



