【动手学深度学习】--20.目标检测和边界框

目标检测和边界框

学习视频:物体检测和数据集【动手学深度学习v2】

官方笔记:目标检测和边界框

在图像分类任务中,我们假设图像中只有一个主要物体对象,我们只关注如何识别其类别。 然而,很多时候图像里有多个我们感兴趣的目标,我们不仅想知道它们的类别,还想得到它们在图像中的具体位置。 在计算机视觉里,我们将这类任务称为目标检测(object detection)或目标识别(object recognition)。

目标检测在多个领域中被广泛使用。 例如,在无人驾驶里,我们需要通过识别拍摄到的视频图像里的车辆、行人、道路和障碍物的位置来规划行进线路。 机器人也常通过该任务来检测感兴趣的目标。安防领域则需要检测异常目标,如歹徒或者炸弹。

1.目标检测

image-20230722091655258

接下来的几节将介绍几种用于目标检测的深度学习方法。 我们将首先介绍目标的位置

%matplotlib inline
import torch
from d2l import torch as d2l

下面加载本节将使用的示例图像。可以看到图像左边是一只狗,右边是一只猫。 它们是这张图像里的两个主要目标。

d2l.set_figsize()
img = d2l.plt.imread('F:/pytorch/img/catdog.jpg')
d2l.plt.imshow(img)

image-20230722092108861

2.边界框

在目标检测中,我们通常使用边界框(bounding box)来描述对象的空间位置。 边界框是矩形的,由矩形左上角的以及右下角的x和y坐标决定。 另一种常用的边界框表示方法是边界框中心的(x,y)轴坐标以及框的宽度和高度。

image-20230722091628951

在这里,我们定义在这两种表示法之间进行转换的函数:box_corner_to_center从两角表示法转换为中心宽度表示法,而box_center_to_corner反之亦然。 输入参数boxes可以是长度为4的张量,也可以是形状为(n,4)的二维张量,其中n是边界框的数量。

#@save
def box_corner_to_center(boxes):
    """从(左上,右下)转换到(中间,宽度,高度)"""
    x1, y1, x2, y2 = boxes[:, 0], boxes[:, 1], boxes[:, 2], boxes[:, 3]
    cx = (x1 + x2) / 2
    cy = (y1 + y2) / 2
    w = x2 - x1
    h = y2 - y1
    boxes = torch.stack((cx, cy, w, h), axis=-1)
    return boxes

#@save
def box_center_to_corner(boxes):
    """从(中间,宽度,高度)转换到(左上,右下)"""
    cx, cy, w, h = boxes[:, 0], boxes[:, 1], boxes[:, 2], boxes[:, 3]
    x1 = cx - 0.5 * w
    y1 = cy - 0.5 * h
    x2 = cx + 0.5 * w
    y2 = cy + 0.5 * h
    boxes = torch.stack((x1, y1, x2, y2), axis=-1)
    return boxes

我们将根据坐标信息定义图像中狗和猫的边界框。 图像中坐标的原点是图像的左上角,向右的方向为x轴的正方向,向下的方向为y轴的正方向。

# bbox是边界框的英文缩写
dog_bbox, cat_bbox = [20.0, 15.0, 190.0, 256.0], [200.0, 50.0, 330.0, 240.0]

我们可以通过转换两次来验证边界框转换函数的正确性。

boxes = torch.tensor((dog_bbox, cat_bbox))
box_center_to_corner(box_corner_to_center(boxes)) == boxes

'''
tensor([[True, True, True, True],
        [True, True, True, True]])
'''

我们可以将边界框在图中画出,以检查其是否准确。 画之前,我们定义一个辅助函数bbox_to_rect。 它将边界框表示成matplotlib的边界框格式。

def bbox_to_rect(bbox, color):
    # 将边界框(左上x,左上y,右下x,右下y)格式转换成matplotlib格式:
    # ((左上x,左上y),宽,高)
    return d2l.plt.Rectangle(
        xy=(bbox[0], bbox[1]), width=bbox[2]-bbox[0], height=bbox[3]-bbox[1],
        fill=False, edgecolor=color, linewidth=2)

在图像上添加边界框之后,我们可以看到两个物体的主要轮廓基本上在两个框内。

fig = d2l.plt.imshow(img)
fig.axes.add_patch(bbox_to_rect(dog_bbox, 'blue'))
fig.axes.add_patch(bbox_to_rect(cat_bbox, 'red'));

image-20230722092950538

  • 物体检测识别图片里的多个物体的类别和位置
  • 位置通常用边缘框表示
### 动手学深度学习 第13.7节 内容解读 《动手学深度学习》是一本由沐神(李沐)等人编写的经典教材,涵盖了从基础到高级的深度学习技术[^5]。第13章主要讨论目标检测中的单发多框检测(Single Shot Multibox Detector, SSD),而第13.7节则深入探讨了SSD模型的具体实现细节。 #### 一、SSD模型的核心概念 SSD是一种高效的目标检测算法,它通过在一个神经网络中同时预测边界框的位置类别概率来完成目标检测任务。相比传统的两阶段方法(如Faster R-CNN),SSD采用了一种端到端的方式,在速度上具有显著优势。 #### 二、第13.7节的主要内容 该章节重点讲解如何利用PyTorch框架实现SSD模型,并提供了详细的代码示例。以下是主要内容: 1. **锚框生成** 锚框(Anchor Boxes)是SSD的关键组成部分之一。它们是在图像的不同位置预先定义的一组候选区域,用于匹配真实物体的边界框。在这一部分,作者介绍了如何生成不同尺度宽高比的锚框。 2. **特征图上的分类与回归** 对于每个锚框,SSD会预测其属于各个类别的概率以及相对于真实边界框的偏移量。这部分涉及两个核心操作: - 使用全连接层或卷积层对锚框进行分类; - 利用线性变换估计边界框的调整参数[^4]。 3. **损失函数设计** SSD采用了两种类型的损失函数: - **置信度损失**:衡量预测类别分布与实际标签之间的差异,通常使用交叉熵损失; - **定位损失**:评估预测边界框与真实边界框的距离,一般基于平滑L1范数计算。 4. **训练过程** 训练过程中需要注意正负样本的比例平衡问题。具体来说,只有那些与真实边界框重叠程度最高的锚框会被视为正样本,其余大部分作为背景处理。 #### 三、代码示例 以下是一个简单的SSD模型实现片段,展示了如何构建基本结构并执行前向传播: ```python import torch from torch import nn class SSD(nn.Module): def __init__(self, num_classes): super(SSD, self).__init__() self.num_classes = num_classes # 特征提取器 (假设为预训练好的VGG backbone) self.base_network = nn.Sequential( nn.Conv2d(3, 64, kernel_size=3, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), # 更复杂的backbone可以替换此处 ... ) # 预测头 self.class_predictor = nn.Conv2d(in_channels=256, out_channels=num_anchors * (num_classes + 1), kernel_size=3, padding=1) self.bbox_predictor = nn.Conv2d(in_channels=256, out_channels=num_anchors * 4, kernel_size=3, padding=1) def forward(self, X): features = self.base_network(X) class_preds = self.class_predictor(features).permute(0, 2, 3, 1).contiguous().view(-1, self.num_classes + 1) bbox_preds = self.bbox_predictor(features).permute(0, 2, 3, 1).contiguous().view(-1, 4) return class_preds, bbox_preds ``` 上述代码仅展示了一个简化版的SSD架构,完整的实现还需要考虑多个特征金字塔层级的设计以及其他优化技巧。 --- #### 四、参考资料扩展阅读建议 如果希望进一步了解相关内容,可参考以下资源: - 沐神官方书籍链接:<https://zh-v2.d2l.ai/> 提供了最新版本的在线文档; - B站教学视频:<https://space.bilibili.com/156774847> 中有关于各章节的详细解析; - GitHub项目地址:<https://github.com/d2l-ai/d2l-zh> 包含全部实验代码及其依赖环境配置说明。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值