- 博客(3)
- 收藏
- 关注
原创 论文阅读|INTRA-CLASS UNCERTAINTY LOSS FUNCTION FOR CLASSIFICATION
主要观点提出基于高斯分布的损失函数,以处理类内不确定性问题高斯均值相当于类中心,不确定性用方差描述类似于类间margin,提出类内margin原理阐述类样本不平衡会导致极坐标下的类分类变得困难L-GM Loss:LL−GM=−1N∑i=1Nloge−dzi(1+α)∑mMe−dm(1+R(m=zi)α)+λ(dzi+12log∣Λzi∣)\begin{aligned}\mathcal{L}_{L-G M}=&-\frac{1}{N} \sum_{i=1}^{N} \log
2021-08-31 16:12:28
389
原创 论文阅读|Beyond softmax loss: Intra-concentration and inter-separability loss for classification
主要观点Softmax具有如下缺点:类间距离甚至会小于类内距离;对特征向量和权重向量的幅值不具有鲁棒性;不适合处理类样本不均衡的任务;没有拒绝错误样本的能力,该样本的标签没有被训练过;在极坐标下,难以添加margin;softmax函数esi/∑iesk{e^{s_{i}} / \sum_{i}^{e^{s} k}}esi/∑iesk的比值不是保持不变的,特征向量和权重向量会变得越来越大;提出intra-concentration and inter-separability l
2021-08-31 10:18:47
292
原创 论文阅读|Circle Loss: A Unified Perspective of Pair Similarity Optimization
项目地址:CircleLoss主要观点重新计算每个相似度的权重,以突出优化程度较低的相似度得分;因此提出circle loss,由于决策边界为circle,故为circle loss;对class-level label和pair-wise label进行统一;原理阐述1比1识别任务应该是减少类间相似度sns_nsn,增大类内相似度sps_psp,但是现有的loss在反向传播时,对sns_nsn与sps_psp的梯度更新是一致的。这就导致某些点无法得到很好的更新,比如sns_nsn与
2021-08-27 19:38:09
528
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人