Keras深度学习实战(15)——从零开始实现YOLO目标检测
0. 前言
在《从零开始实现R-CNN目标检测》中我们学习了 R-CNN 目标检测模型,但基于候选区域的卷积神经网络目标检测 (例如 R-CNN 等) 的缺点之一是,由于选择性搜索需要花费大量时间获取候选区域,因此它无法实现实时目标检测。这导致基于候选区域的目标检测算法在诸如自动驾驶这类需要实时检测的应用中无法使用。
为了实现实时检测,我们将实现另一类主流目标检测模型 YOLO (You Only Look Once),该模型仅需要对图像进行一次运算,即可识别图像中目标对象,并在图像中对象周围绘制边框。
1. YOLO目标检测模型
要了解 YOLO 如何克服在生成候选区域时耗费大量时间的弊端,我们首先需要对 YOLO 目标检测模型进行分解介绍。
接下来,我们将通过使用 YOLO 的单次向前传递进行目标检测预测任务,包括预测图像中的对象类别及其边界框,并将其与我们在《从零开始实现R-CNN目标检测》中上一节实现的基于候选区域的 R-CNN 算法进行比较。
这篇博客介绍了YOLO目标检测模型,包括锚框(anchor boxes)的概念和YOLO模型原理。通过从零开始实现YOLO,文章详细阐述了加载数据集、计算锚框尺寸、创建训练数据集和实现模型的过程,旨在对比R-CNN,展示YOLO如何实现实时目标检测。
订阅专栏 解锁全文
1万+





