一、论文相关信息
1.论文题目:Objects as Points
2.发表时间:2019
3.文献地址:https://arxiv.org/pdf/1904.07850.pdf
4.论文作者: Xingyi Zhou Dequan Wang Philipp Krahenb
5.论文源码:https://github.com/xingyizhou/CenterNet
二、论文详情
CenterNet以bounding box 的中心来表征目标,其它的属性如2d检测中的宽和高、3d检测中的深度、三位边框与方向,多人姿态估计的关键点等属性都由中心点回归得到。
于是目标检测就转换为一个标注的关键点估计问题,只需要将图片输入一个全卷积网络产生一个热力图heatmap,图中的峰值peaks对应我们的目标中心object centers。然后每个peak处的图像特征预测目标bounding box的宽高等属性。在inference时只徐通过一个网络的前向传播得到结果,没有nms等后期处理。
该方法具有通用性,简单修改就能用到其它领域,如上述提到的3D检测和多人姿态估计等。
由于网络很简单,所以也由很快的速度——142 FPS with 28.1% COCO bounding box AP
用上最先进的关键点估计网络沙漏网络(Hourglass-104)以及多尺度检测,精度会大大提高,但速度也会慢下来。
和其他方法对比
该方法和基于anchor 的one-stage方法很像,可以把中心点看作一个类别无关的anchor。

上图为基于anchor detector和我们的center point detecto

本文介绍了一种名为CenterNet的目标检测方法,它将检测任务转化为关键点估计问题,仅需通过图片输入全卷积网络生成热力图,并从中提取峰值作为目标中心,进而预测边界框等属性。该方法避免了复杂的后期处理步骤,实现了快速且准确的目标检测。
最低0.47元/天 解锁文章
1185

被折叠的 条评论
为什么被折叠?



