&Title:
&Summary
论文与CenterNet:Object as points 文章的思想很相似。以行人检测为例将目标检测简化为一个直接的全卷积式的中心点和尺度预测任务,CSP (Center and Scale Prediction) 检测器结构简单。
首先将一张图像输入全卷积网络,基于网络提取的特征图预测两个映射图,一个以热图的方式呈现目标的中心点位置,一个负责预测目标的尺度。在此基础上,便可以将两者映射到原图上并解译成目标检测框:中心点热图的位置对应检测框的中心位置,预测的尺度大小对应检测框的大小,而中心点热图上的置信度则对应检测框的得分。
该算法在行人检测和面部检测数据集上做了实验,准确率有竞争力。
&Research Objective
一种 box-free 的物体检测方法
受启发于传统的特征点检测任务和最近的全卷积关键点检测和配对的工作,本文提出了一种无需密集滑窗或锚框的全卷积预测目标中心点和尺度大小的行人检测方法,为目标检测提供了一个新的视角。
本文工作也受启发于近些年的一些关键点检测和配对的工作。在已有工作中,全卷积神经网络 (FCN) 已被成功地应用于多人姿态估计,首先全卷积检测人体关键点,然后进行组合配对的方式。CornerNet 和 TLL 通过一对对角点检测或上下顶点检测并两两配对的方式,成功地抛弃了锚框,实现目标检测 (第一代 YOLO 不使用锚框)。虽然多个关键点需要额外的配对策略,有些配对方法较为复杂,这一系列工作启发了本文实现简单的全卷积预测中心和尺度的检测器。