基于anchor-free的目标检测算法CenterNet研究

CenterNet是一种先进的目标检测算法,基于关键点检测原理,无需anchor框,显著提升检测速度与精度。此算法通过预测物体中心点及尺寸,实现高效、精准的目标定位。

2020.04.18 小记

近期一直在MOT算法研究,目前SOTA算法核心还是基于CenterTrack网络,而CenterTrack又是基于anchor-free式的CenterNet网络,CenterNet是继YOLO目标检测算法以来新创的目标检测派系,yolo系列都是anchor-based算法,因此着重研究了下CenterNet,其在相同速度下,CenterNet的精度比YOLOv3提高了4个左右的点,后将对此算法结果复现,并考虑相关算法迁移。

2019年比较新的目标检测的论文,抛弃了主流的使用anchor回归检测框的机制.不得不慨叹,AI算法日新月异,层出不穷,好吧我不知道怎样形容了,目标检测一段时间没看,就蹦出这么多新点子新算法,真是读论文的还没写论文的快。啊啊No!

进入正题...

============================分=============割==================线===============================

CenterNet(指本文的做法)将目标检测过程看做是中心点的预测,并预测出下采样误差偏移量和预测框尺寸。也是一种关键点检测的方法,主要在CornerNet上进行改进。

使用上,CenterNet可以用于2D、3D的目标检测以及人体姿势的关键点检测。

paper:CenterNet的真实论文名称叫做objects as points

先来看看效果吧:

 

惊不惊喜意不意外?CenterNet不仅可以用于目标检测,还可以用于其他的一些任务,如肢体识别或者3D目标检测等等,但是今天我们就重点说说目标检测的部分。CenterNet 牛逼的地方在于他不仅可以做2D目标检测,只需要少量扩展就可以迁移到3D目标检测和人体关键点检测上。

摘要

 图像检测中的检测框默认是轴对称的,大多数比较成功的检测方法都是要列举很大数量的候选框,再进一步进行定位和分类。但是这样的做法往往是多余而又低效率的。本文中我们提出了一种对物体的中心点进行定位的方法,并且在此基础上回归出物体的其他属性,比如尺寸、3D位置、方向甚至是姿态。我们提出的网络称之为CenterNet,它是一个端到端可微分,更简化快捷精度更高的方法。

那CenterNet相比于之前的one-stage和two-stage的目标检测有什么特点?

  • CenterNet的“anchor”仅仅会出现在当前目标的位置处而不是整张图上撒,所以也没有所谓的box overlap大于多少多少的算positive anchor这一说,也不需要区分这个anchor是物体还是背景 - 因为每个目标只对应一个“anchor”,这个anchor是从heatmap中提取出来的,所以不需要NMS再进行来筛选
  • CenterNet的输出分辨率的下采样因子是4,比起其他的目标检测框架算是比较小的(Mask-Rcnn最小为16、SSD为最小为16)。

总体来说,CenterNet结构优雅简单,直接检测目标的中心点和大小,是真anchor-free。

 

1. Introduction

对于目标检测,one-stage的方法是给图像中使用了一个叫anchor的机制,去排布很多框在图像中,直接进行框的打分;而two-stage的方法会对这些框中的featuremap进行重新计算,再进一步进行分类和回归。后处理一般使用的是非极大值抑制,以去掉那些重复的框。因为大多数训练都不适用这种

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值