论文阅读-目标检测(2019)-CenterNet:目标检测转化为关键点检测及其属性回归

CenterNet:目标检测新视角

CenterNet

论文:Objects as Points

地址:https://paperswithcode.com/paper/objects-as-points
在这里插入图片描述

基本思想

  目标检测一般将图像中物体识别为一个平行坐标轴的框,目前多数的检测器都几乎穷举了图像中所有可能的目标位置然后对其进行分类,这种方式非常低效而且需要额外的后处理。论文提出的检测方法CenterNet则将目标视为单个的点——边界框的中心点,该检测器使用关键点估计来确定中心点,然后回归所有其他的属性,比如尺寸,3D位置,角度甚至是姿态,CenterNet是一个端到端,全程可微,高校简单又准确的检测器,不仅再2d目标检测上表现较好,也可用于3d检测以及人体姿态估计。

  CenterNet将目标检测问题转换为一个标准的关键点估计问题,首先将图像喂给一个全卷积网络产生热点图,图上的峰值点对应目标的中心,每个峰值点附近的图像特征来预测目标的宽高,模型训练的方法使用的是标准的密集任务有监督学习,推断则是完全端到端没有nms后处理的方法。

  CenterNet与基于Anchor的一阶段检测器类似,一个中心点可以被视为一个形状位置的Anchor,不同的是:

  • CenterNet确定“anchor”只与位置相关,与框的重叠度无关;
  • 每个目标只有一个正“anchor”因此不需要NMS;
  • CenterNet输出的分辨率较大OS=4.

形式化

  令I∈RW×H×3I\in R^{W\times H\times 3}IRW×H×3表示宽高分别为W,HW,HW,H的输入图像,目标是预测一个关键点热力图Y^∈[0,1]WR×HR×C\hat Y \in [0,1]^{\frac{W}{R}\times \frac{H}{R}\times C}Y^[0,1]RW×RH×C,其中RRR表征输出的特征图尺寸,CCC表示关键点类型的数量(或者目标检测中的目标类别数),论文中R=4R=4R=4。在热力图中Y^x,y,c=1\hat Y_{x,y,c}=1Y^x,y,c=1对应一个被检测到的关键点,Y^x,y,c=0\hat Y_{x,y,c}=0Y^x,y,c=0表示背景。

训练目标

2D目标检测

  训练过程,对于每个类别为ccc的GT关键点p∈R2p\in R^2pR2,模型都会计算一个低分辨率的替换值p~=⌊pR⌋\tilde p=\lfloor \frac{p}{R}\rfloorp~=Rp,然后使用一个高斯核函数Yxyc=exp(−(x−p^x)2+(y−p^y)22σp2)Y_{xyc}=exp\left(-\frac{(x-\hat p_x)^2+(y-\hat p_y)^2}{2\sigma_p^2}\right)Yxyc=exp(2σp2(xp^x)2+(yp^y)2)将所有的GT关键点赋予到一幅热力图Y∈[0,1]WR×HR×CY\in [0,1]^{\frac{W}{R}\times \frac{H}{R}\times C}Y[0,1]RW×RH×C,如果同一类别的两个高斯生成点重叠,则以较大值为准,训练的目标损失函数如下:

Lk=−1NΣxyc{ (1−Y^xyc)αlog(Y^xyc)if  Yxyc=1(1−Yxyc)β(Y^xyc)αlog(1−Y^xyc)otherwise L_k=\frac{-1}{N}\Sigma_{xyc} \begin{cases} (1-\hat Y_{xyc})^{\alpha}log(\hat Y_{xyc})&if\ \ Y_{xyc=1} \\ (1-Y_{xyc})^{\beta}(\hat Y_{xyc})^{\alpha}log(1-\hat Y_{xyc})&otherwise \end{cases} Lk=N1Σxyc{ (1Y^xyc)αlog(Y^xyc)(1Yxyc)β(Y^xyc)αlog(1Y^xyc)if  Yxyc=1otherwise

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值