【目标检测】Bounding Box Regression

本文深入解析BoundingBox回归在目标检测中的作用及其实现方法。详细介绍了从候选区域到精确边界框的调整过程,以及如何通过线性变换实现边界框的微调。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Bounding Box是目标检测中一个重要概念。常见格式是边界框左上角坐标、右下角坐标,即[xmin,ymin,xmax,ymax];或者边界框中心坐标,宽高,即[x_center,y_center,w,h]。

Bounding Box Regression的作用

以下图为例,红色框表示Ground Truth, 蓝色框为网络输出的候选区域框Region Proposal。蓝色框被分类器识别为person,但因框定位不准(IoU<阈值), 则也是检测失败。 Bounding Box Regression的目的就是对蓝色框微调,使得经过微调后的窗口跟真实边界框更接近[1]。

 

如何进行Bounding Box Regression

以四维向量(x,y,w,h) 表示的Bounding Box为例, 即窗口的中心点坐标[x,y]和宽高[w,h]。P=[P_x,P_y,P_w,P_h]表示原始的Region Proposal,  G=[G_x,G_y,G_w,G_h]表示Ground Truth,Bounding Box Regression的目标是寻找一种函数关系使得输入原始的窗口 P 经过映射得到一个跟真实窗口G更接近的回归窗口\hat{G} = [\hat{G}_x,\hat{G}_y,\hat{G}_w,\hat{G}_h]。[2]

P通过线性变换得到\hat{G},对x,y做平移,对w,h做缩放。

边框回归就是学习这四个变换d_x(P),d_y(P),d_w(P),d_h(P)。RCNN中,对P经过pool5的特征层学习一个线性变换,参数为w_*。最后网络输出d_*(P)=w^T_* \phi_5(P)。该回归任务的target t_* 如下:

 

 

 

参考资料:

[1]边框回归(Bounding Box Regression)详解

[2]Rich feature hierarchies for accurate oject detection and semantic segmentation

### 边界框回归概念 边界框回归是目标检测算法中的一个重要组成部分,其目的是通过调整初始预测的边界框来更精确地定位目标对象的位置和尺寸。在训练过程中,模型学习如何修正这些初步预测以最小化真实边界框与预测之间的差异。 对于大多数现代的目标检测框架而言,边界框通常由四个参数定义:中心坐标 (cx, cy),宽度 w 和高度 h 或者左上角坐标(xmin,ymin)以及右下角坐标(xmax,ymax)[^1]。 ### 实现方法 #### R-CNN系列 R-CNN及其变体(Fast R-CNN, Faster R-CNN)采用两阶段的方法来进行边界框回归。首先利用区域提议网络生成候选区域;其次,在第二阶段应用线性支持向量机(SVMs)或其他分类器对每个建议区进行分类并执行边界框微调操作。具体来说,Faster R-CNN引入了一个专门负责产生高质量区域提案的子网——Region Proposal Network(RPN),它可以直接嵌入到整个架构之中。 ```python def bbox_transform(deltas, boxes): """ Apply bounding-box regression deltas to predicted boxes. Parameters: deltas: Predicted offsets from each anchor box. boxes : Original anchor or proposal boxes. Returns: Transformed boxes based on the given delta values. """ widths = boxes[:, 2] - boxes[:, 0] + 1.0 heights = boxes[:, 3] - boxes[:, 1] + 1.0 ctr_x = boxes[:, 0] + 0.5 * widths ctr_y = boxes[:, 1] + 0.5 * heights dx = deltas[:, 0::4] dy = deltas[:, 1::4] dw = deltas[:, 2::4] dh = deltas[:, 3::4] pred_ctr_x = dx * widths.unsqueeze(-1) + ctr_x.unsqueeze(-1) pred_ctr_y = dy * heights.unsqueeze(-1)+ ctr_y.unsqueeze(-1) pred_w = torch.exp(dw) * widths.unsqueeze(-1) pred_h = torch.exp(dh) * heights.unsqueeze(-1) pred_boxes = deltas.clone() # x1 pred_boxes[:, 0::4] = pred_ctr_x - 0.5 * pred_w # y1 pred_boxes[:, 1::4] = pred_ctr_y - 0.5 * pred_h # x2 pred_boxes[:, 2::4] = pred_ctr_x + 0.5 * pred_w # y2 pred_boxes[:, 3::4] = pred_ctr_y + 0.5 * pred_h return pred_boxes ``` #### Single Shot Detectors (SSD/YOLOvX) 相比之下,像YOLO这样的single shot detectors则采取了一种更加直接的方式处理这个问题。它们在整个输入图片上划分出固定数量的网格单元格,并让每一个细胞都去预测一定数目的边界框及其对应的置信度得分。这种做法不仅简化了流程而且提高了速度,因为不需要额外的时间消耗于生成region proposals这一步骤之上[^2]。 ### 应用场景 边界框回归的应用非常广泛,几乎涵盖了所有涉及到视觉识别的任务领域: - **自动驾驶汽车**:车辆周围环境感知系统依赖于精准的对象位置信息以便做出安全决策; - **安防监控视频分析**:实时跟踪人员活动轨迹、异常行为预警等功能都需要依靠稳定可靠的物体检测技术提供支撑; - **机器人导航避障**:帮助移动平台理解周边空间布局从而规划最优路径绕过障碍物; - **增强现实游戏开发**:使得虚拟物品能够自然融入现实生活场景当中并与之互动。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值