为什么要做BoundingBox Regression(BBR)?
首先我们先来考虑,RCNN中为什么要做BoundingBox-Regression?
Bounding Boxregression是 RCNN中使用的边框回归方法,在RCNN的论文中,作者指出:主要的错误是源于mislocalization。为了解决这个问题,作者使用了bounding box regression。
这个方法使得mAp提高了3到4个点。

BBR的输入 是什么?
注意,这里网上很多地方都说的不太正确,有误导,我仔细理解了一些论文,把自己的理解写下。(羞涩)

对于预测框P,我们有一个ground truth是G:当0.1< IoU < 0.5时出现重复,这种情况属于作者说的poor localiazation, 但注意:我们使用的并不是这样的框进行BBR(网上很多地方都在这里出现了误导),作者是用iou>0.6的进行BBR,也就是iou<0.6的Bounding Box会直接被舍弃,不进行BBR。这样做是为了满足线性转换的条件。否则会导致训练的回归模型不 work.
(当 P跟 G 离得较远,就是复杂的非线性问题了,此时用线性回归建模显然不合理。)
至于为什么当IoU较大的时候,我们才认为是线性变化,我找到一个觉得解释的比较清楚的,截图在下面:

本文介绍了BoundingBox Regression (BBR)在RCNN中的应用,解释了BBR的主要目的是解决mislocalization问题,通过线性回归提高mAp。内容详细解析了BBR的输入不是所有IoU小于0.6的框,而是选取IoU大于0.6的框进行回归。同时,讨论了为何在IoU较大的情况下,变换可以视为线性变化,并且说明了使用exp形式表示缩放尺寸的原因。最后,阐述了损失函数和输入特征的选择,强调BBR是针对每种类别训练的,而非独立于分类信息。
最低0.47元/天 解锁文章
1万+





