【读论文1006】Class-Variant Margin Normalized Softmax Loss for Deep Face Recognition

有一些相关,简单看看

Class-Variant Margin Normalized Softmax Loss for Deep Face Recognition

TNNLS 的short paper


要解决的问题

softmax有两个问题

  • 类别不平衡
  • 有饱和区域

主要思路

L c v m = − 1 N ∑ i = i N log ⁡ e s ⋅ ( cos ⁡ θ y i − h ( θ y i ) ) e s ⋅ ( cos ⁡ θ y i − h ( θ y i ) ) + ∑ j ≠ y i e s ⋅ ( cos ⁡ θ y i + g ( θ j ) ) L_{cvm} = - \frac{1}{N}\sum_{i=i}^N \log \frac{e^{s \cdot (\cos \theta_{y_i}-h({ \theta_{y_i})})}} {e^{s \cdot(\cos \theta_{y_i}-h({ \theta_{y_i})})} +\sum_{j \neq y_i} e^{s \cdot (\cos \theta_{y_i}+g({ \theta_{j})})} } Lcvm=N1i=iNloges(cosθyih(θyi))+j=yies(cosθyi+g(θj))es(cosθyih(θyi))

- h ( θ y i ) = m 1 ( 1 − cos ⁡ 2 θ y i ) h(\theta_{y_i}) = m_1(1-\cos ^2 \theta_{y_i}) h(θyi)=m1(1cos2θyi)
- g ( θ j ) = m 2 ( cos ⁡ 2 θ j ) g(\theta_j) = m_2(\cos ^2 \theta_j) g(θj)=m2(cos2θj)

论文把这个 h ( θ y i ) h(\theta_{y_i}) h(θyi)叫 “true class margin”,作用是给更难分的样本更大的margin (我不知道该怎么翻译好了,就还用这个单词吧)。 h ( θ y i ) h(\theta_{y_i}) h(θyi) cos ⁡ θ y i \cos\theta_{y_i} cosθyi成反比,正常来说目标类的 cos ⁡ θ y i \cos\theta_{y_i} cosθyi应该大,这个值小的话说明样本难分,所以给它留个大边界。
g ( θ j ) g(\theta_j) g(θj)叫false class margin。容易被误分类的,给大边界。

还是有点儿意思的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值