Learning from Noisy Anchors for One-stage Object Detection

该博客探讨了目标检测器中存在的问题,即依赖IoU划分正负样本导致的二进制标签噪声。提出了一种新的解决方案,即锚点清洁度概念,用于动态调整噪声提案的重要性,减少其对训练的影响。通过引入连续的清洁度得分作为软标签,网络可以更专注于清洁样本,避免过度自信的二值化决策,并减少分类和定位之间的偏差。同时,针对数据不平衡问题,建议重新加权策略。实验表明,这种方法提高了模型的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

存在的问题

最先进的目标检测器依赖于回归和分类广泛的可能锚定列表,这些锚定根据其在IoU上与相应的GT的交集分为正样本和负样本。这种以IoU为条件的严格拆分会导致二进制标签存在潜在的噪音,并且对训练具有挑战性。
image.png

解决方案

如上所述,正样本和负样本的不完美分割以及用矩形表示对象的局限性所产生的噪声不仅会混淆分类分支以获得良好的决策边界,而且还会误导重新采样/加权方法。因此,我们建议通过动态调整噪音提案的重要性来减少噪音提案的影响。为了实现这一点,我们根据锚成功分类和回归的可能性,引入了锚清洁度的概念。清洁度得分是连续的,以便自适应地控制不同方案的贡献。
image.png

清洁度得分很容易用作软标签,通过将t替换为c来控制不同锚对BCE损失的贡献。由于清洁度得分是根据loc_a和cls_c之间的权衡动态估计的,因此网络可以关注清洁样本,而不是标记不当的噪声样本。此外,这些软而连续的标签允许网络与检测评估协议更加兼容,在这些协议中,所有最终预测都根据其在NMS中的分类分数进行排序,如实验所示。原因有两个方面:
(1)软标签防止模型产生过于自信的二值化决策,从而产生更有意义的排名;
(2) 定位精度在软标签中建模,减少分类和定位之间的偏差。
单阶段检测器通常面临着严重的训练数据不平衡问题,有大量的负面建议,只有少数正面建议。为了缓解这一问题,Focal loss减少了简单样本的损失,并将重点更多地放在困难样本和噪声样本上。**然而,对于带有标签噪音的提案,即使它们可能只是异常值,也会在训练期间受到强调。**因此,我们还建议重新re-weight
由于loc_a和cls_c被归一化,不同方案之间的清洁度得分变化不显著。为了鼓励较大的方差,我们通过非线性函数f(x)=1/(1-x)传递loc_a和cls_u。每个方框b的重新加权系数r∈ Apos变为:
image.png

image.png

smooth L1(Fast RCNN,后续Faster RCNN和SSD皆有采用):
image.png

优点:L1 loss和L2 loss的结合。 L1训练后期导数绝对值仍为1,难以收敛到更高精度;L2训练前期导数过大,训练不稳定。
缺点:四个点相互独立计算,丢失了关联性,早已被IoU loss替代。

实验结果

image.png

image.png

image.png

image.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值