在线难例挖掘 论文

论文探讨了在Faster R-CNN中应用在线难例挖掘(OHEM)的方法,以替代传统的随机抽样策略。通过计算ROI损失并选择最高损失的样本,提高了模型的准确性,减少了人为启发式参数的影响。OHEM技术允许网络自我学习,提升了整体性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ohem

这篇论文主要就是在faster rcnn上加上了online hard example mining,论文还是比较容易理解的。

首先回顾一下,faster rcnn的mini batch 的生成过程。

在faster rcnn中mini batch设定为2张图片,每张图片生成128个roi,然后输入进入roi网络。

如下图(这是fast rcnn的图,faster rcnn中rpn和deep conv有段共享计算的过程)

clipboard

很明显faster rcnn中rpn网络生成的roi远远多于128,所以这128是从rpn生成的所有roi中随机抽样(好草率。。)出来的。正负样本比例为1:3,其中正样本定义为iou > =0.5,负样本定义为 0.1<= iou < 0.5。

上述的定义的数值都是人为启发式的,所以严格上来说并不是那么'理智'。所以作者提出了难例挖掘这一改进。当然在机器学习学习中尤其是在svm中早就已经使用,又称为bootstrapping。

传统的难例挖掘流程

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值