CenterNet
论文:Objects as Points
地址:https://paperswithcode.com/paper/objects-as-points
基本思想
目标检测一般将图像中物体识别为一个平行坐标轴的框,目前多数的检测器都几乎穷举了图像中所有可能的目标位置然后对其进行分类,这种方式非常低效而且需要额外的后处理。论文提出的检测方法CenterNet则将目标视为单个的点——边界框的中心点,该检测器使用关键点估计来确定中心点,然后回归所有其他的属性,比如尺寸,3D位置,角度甚至是姿态,CenterNet是一个端到端,全程可微,高校简单又准确的检测器,不仅再2d目标检测上表现较好,也可用于3d检测以及人体姿态估计。
CenterNet将目标检测问题转换为一个标准的关键点估计问题,首先将图像喂给一个全卷积网络产生热点图,图上的峰值点对应目标的中心,每个峰值点附近的图像特征来预测目标的宽高,模型训练的方法使用的是标准的密集任务有监督学习,推断则是完全端到端没有nms后处理的方法。
CenterNet与基于Anchor的一阶段检测器类似,一个中心点可以被视为一个形状位置的Anchor,不同的是:
- CenterNet确定“anchor”只与位置相关,与框的重叠度无关;
- 每个目标只有一个正“anchor”因此不需要NMS;
- CenterNet输出的分辨率较大OS=4.
形式化
令I∈RW×H×3I\in R^{W\times H\times 3}I∈RW×H×3表示宽高分别为W,HW,HW,H的输入图像,目标是预测一个关键点热力图Y^∈[0,1]WR×HR×C\hat Y \in [0,1]^{\frac{W}{R}\times \frac{H}{R}\times C}Y^∈[0,1]RW×RH×C,其中RRR表征输出的特征图尺寸,CCC表示关键点类型的数量(或者目标检测中的目标类别数),论文中R=4R=4R=4。在热力图中Y^x,y,c=1\hat Y_{x,y,c}=1Y^x,y,c=1对应一个被检测到的关键点,Y^x,y,c=0\hat Y_{x,y,c}=0Y^x,y,c=0表示背景。
训练目标
2D目标检测
训练过程,对于每个类别为ccc的GT关键点p∈R2p\in R^2p∈R2,模型都会计算一个低分辨率的替换值p~=⌊pR⌋\tilde p=\lfloor \frac{p}{R}\rfloorp~=⌊Rp⌋,然后使用一个高斯核函数Yxyc=exp(−(x−p^x)2+(y−p^y)22σp2)Y_{xyc}=exp\left(-\frac{(x-\hat p_x)^2+(y-\hat p_y)^2}{2\sigma_p^2}\right)Yxyc=exp(−2σp2(x−p^x)2+(y−p^y)2)将所有的GT关键点赋予到一幅热力图Y∈[0,1]WR×HR×CY\in [0,1]^{\frac{W}{R}\times \frac{H}{R}\times C}Y∈[0,1]RW×RH×C,如果同一类别的两个高斯生成点重叠,则以较大值为准,训练的目标损失函数如下:
Lk=−1NΣxyc{ (1−Y^xyc)αlog(Y^xyc)if Yxyc=1(1−Yxyc)β(Y^xyc)αlog(1−Y^xyc)otherwise L_k=\frac{-1}{N}\Sigma_{xyc} \begin{cases} (1-\hat Y_{xyc})^{\alpha}log(\hat Y_{xyc})&if\ \ Y_{xyc=1} \\ (1-Y_{xyc})^{\beta}(\hat Y_{xyc})^{\alpha}log(1-\hat Y_{xyc})&otherwise \end{cases} Lk=N−1Σxyc{ (1−Y^xyc)αlog(Y^xyc)(1−Yxyc)β(Y^xyc)αlog(1−Y^xyc)if Yxyc=1otherwise
CenterNet:目标检测新视角


最低0.47元/天 解锁文章
3361

被折叠的 条评论
为什么被折叠?



