Bounding-Box regression

本文深入解析边框回归在目标检测中的作用与实现方法,探讨其为何及如何进行微调,以提升检测精度。

原文链接:https://blog.youkuaiyun.com/zijin0802034/article/details/77685438

最近一直看检测有关的Paper, 从rcnn, fast rcnn, faster rcnn, yolo, r-fcn, ssd,到今年cvpr最新的yolo9000。这些paper中损失函数都包含了边框回归,除了rcnn详细介绍了,其他的paper都是一笔带过,或者直接引用rcnn就把损失函数写出来了。前三条网上解释比较多,后面的两条我看了很多paper,才得出这些结论。

    为什么要边框回归?
    什么是边框回归?
    边框回归怎么做的?
    边框回归为什么宽高,坐标会设计这种形式?
    为什么边框回归只能微调,在离Ground Truth近的时候才能生效?

为什么要边框回归?

这里引用王斌师兄的理解,如下图所示:

这里写图片描述

对于上图,绿色的框表示Ground Truth, 红色的框为Selective Search提取的Region Proposal。那么即便红色的框被分类器识别为飞机,但是由于红色的框定位不准(IoU<0.5), 那么这张图相当于没有正确的检测出飞机。 如果我们能对红色的框进行微调, 使得经过微调后的窗口跟Ground Truth 更接近, 这样岂不是定位会更准确。 确实,Bounding-box regression 就是用来微调这个窗口的。
边框回归是什么?

继续借用师兄的理解:对于窗口一般使用四维向量(x,y,w,h)
来表示, 分别表示窗口的中心点坐标和宽高。 对于图 2, 红色的框 P 代表原始的Proposal, 绿色的框 G 代表目标的 Ground Truth, 我们的目标是寻找一种关系使得输入原始的窗口 P 经过映射得到一个跟真实窗口 G 更接近的回归窗口G^


这里写图片描述

边框回归的目的既是:给定(Px,Py,Pw,Ph)
寻找一种映射f, 使得f(Px,Py,Pw,Ph)=(Gx^,Gy^,Gw^,Gh^) 并且(Gx^,Gy^,Gw^,Gh^)≈(Gx,Gy,Gw,Gh)

边框回归怎么做的?

那么经过何种变换才能从图 2 中的窗口 P 变为窗口G^

呢? 比较简单的思路就是: 平移+尺度放缩

    先做平移(Δx,Δy)

, Δx=Pwdx(P),Δy=Phdy(P) 这是R-CNN论文的:
G^x=Pwdx(P)+Px,(1)
G^y=Phdy(P)+Py,(2)
然后再做尺度缩放(Sw,Sh)
, Sw=exp(dw(P)),Sh=exp(dh(P)), 对应论文中:
G^w=Pwexp(dw(P)),(3)
G^h=Phexp(dh(P)),(4)

观察(1)-(4)我们发现, 边框回归学习就是dx(P),dy(P),dw(P),dh(P)

这四个变换。下一步就是设计算法那得到这四个映射。

线性回归就是给定输入的特征向量 X, 学习一组参数 W, 使得经过线性回归后的值跟真实值 Y(Ground Truth)非常接近. 即Y≈WX

。 那么 Bounding-box 中我们的输入以及输出分别是什么呢?
Input:

RegionProposal→P=(Px,Py,Pw,Ph)
,这个是什么? 输入就是这四个数值吗?其实真正的输入是这个窗口对应的 CNN 特征,也就是 R-CNN 中的 Pool5 feature(特征向量)。 (注:训练阶段输入还包括 Ground Truth, 也就是下边提到的t∗=(tx,ty,tw,th)

)
Output:

需要进行的平移变换和尺度缩放 dx(P),dy(P),dw(P),dh(P)
, 或者说是Δx,Δy,Sw,Sh 。 我们的最终输出不应该是 Ground Truth 吗? 是的, 但是有了这四个变换我们就可以直接得到 Ground Truth, 这里还有个问题, 根据(1)~(4)我们可以知道, P 经过 dx(P),dy(P),dw(P),dh(P) 得到的并不是真实值 G, 而是预测值G^。 的确, 这四个值应该是经过 Ground Truth 和 Proposal 计算得到的真正需要的平移量(tx,ty) 和尺度缩放(tw,th)


这也就是 R-CNN 中的(6)~(9):
tx=(Gx−Px)/Pw,(6)

ty=(Gy−Py)/Ph,(7)

tw=log(Gw/Pw),(8)

th=log(Gh/Ph),(9)

那么目标函数可以表示为 d∗(P)=wT∗Φ5(P)
, Φ5(P)是输入 Proposal 的特征向量,w∗是要学习的参数(*表示 x,y,w,h, 也就是每一个变换对应一个目标函数) , d∗(P) 是得到的预测值。 我们要让预测值跟真实值t∗=(tx,ty,tw,th)

差距最小, 得到损失函数为:

Loss=∑iN(ti∗−w^T∗ϕ5(Pi))2

函数优化目标为:

W∗=argminw∗∑iN(ti∗−w^T∗ϕ5(Pi))2+λ||w^∗||2

利用梯度下降法或者最小二乘法就可以得到 w∗


为什么宽高尺度会设计这种形式?

这边我重点解释一下为什么设计的tx,ty
为什么除以宽高,为什么tw,th

会有log形式!!!

首先CNN具有尺度不变性, 以图3为例:

这里写图片描述

x,y 坐标除以宽高

上图的两个人具有不同的尺度,因为他都是人,我们得到的特征相同。假设我们得到的特征为ϕ1,ϕ2
,那么一个完好的特征应该具备ϕ1=ϕ。ok,如果我们直接学习坐标差值,以x坐标为例,xi,pi 分别代表第i个框的x坐标,学习到的映射为f, f(ϕ1)=x1−p1,同理f(ϕ2)=x2−p2。从上图显而易见,x1−p1≠x2−p1

。也就是说同一个x对应多个y,这明显不满足函数的定义。边框回归学习的是回归函数,然而你的目标却不满足函数定义,当然学习不到什么。
宽高坐标Log形式

我们想要得到一个放缩的尺度,也就是说这里限制尺度必须大于0。我们学习的tw,th

怎么保证满足大于0呢?直观的想法就是EXP函数,如公式(3), (4)所示,那么反过来推导就是Log函数的来源了。
为什么IoU较大,认为是线性变换?

当输入的 Proposal 与 Ground Truth 相差较小时(RCNN 设置的是 IoU>0.6), 可以认为这种变换是一种线性变换, 那么我们就可以用线性回归来建模对窗口进行微调, 否则会导致训练的回归模型不 work(当 Proposal跟 GT 离得较远,就是复杂的非线性问题了,此时用线性回归建模显然不合理)。这里我来解释:

Log函数明显不满足线性函数,但是为什么当Proposal 和Ground Truth相差较小的时候,就可以认为是一种线性变换呢?大家还记得这个公式不?参看高数1。

limx=0log(1+x)=x

现在回过来看公式(8):

tw=log(Gw/Pw)=log(Gw+Pw−PwPw)=log(1+Gw−PwPw)

当且仅当Gw−Pw

=0的时候,才会是线性函数,也就是宽度和高度必须近似相等。

对于IoU大于指定值这块,我并不认同作者的说法。我个人理解,只保证Region Proposal和Ground Truth的宽高相差不多就能满足回归条件。x,y位置到没有太多限制,这点我们从YOLOv2可以看出,原始的边框回归其实x,y的位置相对来说对很大的。这也是YOLOv2的改进地方。详情请参考我的博客YOLOv2。
总结

里面很多都是参考师兄在caffe社区的回答,本来不想重复打字的,但是美观的强迫症,让我手动把latex公式巴拉巴拉敲完,当然也为了让大家看起来顺眼。后面还有一些公式那块资料很少,是我在阅读paper+个人总结,不对的地方还请大家留言多多指正。

 

### 边界框回归概念 边界框回归是目标检测算法中的一个重要组成部分,其目的是通过调整初始预测的边界框来更精确地定位目标对象的位置和尺寸。在训练过程中,模型学习如何修正这些初步预测以最小化真实边界框与预测之间的差异。 对于大多数现代的目标检测框架而言,边界框通常由四个参数定义:中心坐标 (cx, cy),宽度 w 和高度 h 或者左上角坐标(xmin,ymin)以及右下角坐标(xmax,ymax)[^1]。 ### 实现方法 #### R-CNN系列 R-CNN及其变体(Fast R-CNN, Faster R-CNN)采用两阶段的方法来进行边界框回归。首先利用区域提议网络生成候选区域;其次,在第二阶段应用线性支持向量机(SVMs)或其他分类器对每个建议区进行分类并执行边界框微调操作。具体来说,Faster R-CNN引入了一个专门负责产生高质量区域提案的子网——Region Proposal Network(RPN),它可以直接嵌入到整个架构之中。 ```python def bbox_transform(deltas, boxes): """ Apply bounding-box regression deltas to predicted boxes. Parameters: deltas: Predicted offsets from each anchor box. boxes : Original anchor or proposal boxes. Returns: Transformed boxes based on the given delta values. """ widths = boxes[:, 2] - boxes[:, 0] + 1.0 heights = boxes[:, 3] - boxes[:, 1] + 1.0 ctr_x = boxes[:, 0] + 0.5 * widths ctr_y = boxes[:, 1] + 0.5 * heights dx = deltas[:, 0::4] dy = deltas[:, 1::4] dw = deltas[:, 2::4] dh = deltas[:, 3::4] pred_ctr_x = dx * widths.unsqueeze(-1) + ctr_x.unsqueeze(-1) pred_ctr_y = dy * heights.unsqueeze(-1)+ ctr_y.unsqueeze(-1) pred_w = torch.exp(dw) * widths.unsqueeze(-1) pred_h = torch.exp(dh) * heights.unsqueeze(-1) pred_boxes = deltas.clone() # x1 pred_boxes[:, 0::4] = pred_ctr_x - 0.5 * pred_w # y1 pred_boxes[:, 1::4] = pred_ctr_y - 0.5 * pred_h # x2 pred_boxes[:, 2::4] = pred_ctr_x + 0.5 * pred_w # y2 pred_boxes[:, 3::4] = pred_ctr_y + 0.5 * pred_h return pred_boxes ``` #### Single Shot Detectors (SSD/YOLOvX) 相比之下,像YOLO这样的single shot detectors则采取了一种更加直接的方式处理这个问题。它们在整个输入图片上划分出固定数量的网格单元格,并让每一个细胞都去预测一定数目的边界框及其对应的置信度得分。这种做法不仅简化了流程而且提高了速度,因为不需要额外的时间消耗于生成region proposals这一步骤之上[^2]。 ### 应用场景 边界框回归的应用非常广泛,几乎涵盖了所有涉及到视觉识别的任务领域: - **自动驾驶汽车**:车辆周围环境感知系统依赖于精准的对象位置信息以便做出安全决策; - **安防监控视频分析**:实时跟踪人员活动轨迹、异常行为预警等功能都需要依靠稳定可靠的物体检测技术提供支撑; - **机器人导航避障**:帮助移动平台理解周边空间布局从而规划最优路径绕过障碍物; - **增强现实游戏开发**:使得虚拟物品能够自然融入现实生活场景当中并与之互动。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值