
本文是发表于AAAI 2025的文章,介绍了一种新的红外小目标检测方法。代码开源:https://github.com/JN-Yang/PConv-SDloss-Data
近年来,基于卷积神经网络 (CNN) 的红外小目标检测方法取得了显著成果。然而,这些方法通常使用标准卷积,忽略了红外小目标像素分布的空间特征。为此,本文提出了一种新型的风车形卷积 (PConv) 模块,用于替换骨干网络底层的标准卷积。PConv 更好地与红外小目标的 Gaussian 空间分布对齐,提高了特征提取能力,显著扩展了感受野,并且仅引入了最小的参数增加。此外,尽管现有的损失函数结合了尺度损失和位置损失,但它们没有充分考虑到这些损失在不同目标尺度上的敏感性差异,从而限制了在暗弱小目标上的检测性能。为了克服这一缺陷,本文提出了一种基于尺度的动态 (SD) 损失,该损失根据目标大小动态调整尺度和位置损失的影响,从而提高了网络检测不同尺度目标的能力。本文构建了一个新的基准数据集 SIRST-UAVB,这是迄今为止最大的最具挑战性的真实场景单帧红外小目标检测数据集。本文贡献在三方面:
1.风车形卷积 (PConv)
2.基于尺度的动态损失 (SD Loss)
3.SIRST-UAVB 数据集
下面重点介绍前两方面
创新点1:风车形卷积 (PConv)

不对称填充: PConv 使用非对称填充来创建水平和垂直的卷积核。
X1(h′,w′,c′)=SiLU(BN(XP(1,0,0,3)(h1,w1,c1)⊗W1(1,3,c′))),X2(h′,w′,c′)=SiLU(BN(XP(0,3,0,1)(h1,w1,c1)⊗W2(3,1,c′))),X3(h′,w′,c′)=SiLU(BN(XP(0,1,3,0)(h1,w1,c1)⊗W3(1,3,c′))),X4(h′,w′,c′)=SiLU(BN(XP(3,0,1,0)(h1,w1,c1)⊗W4(3,1,c′))).\begin{gathered}{X_{1}}^{(h^{\prime},w^{\prime},c^{\prime})}=SiLU(BN(X_{P(1,0,0,3)}^{(h_{1},w_{1},c_{1})}\otimes W_{1}{}^{(1,3,c^{\prime})})),\\X_{2}^{(h^{\prime},w^{\prime},c^{\prime})}=SiLU(BN(X_{P(0,3,0,1)}^{(h_{1},w_{1},c_{1})}\otimes W_{2}^{(3,1,c^{\prime})})),\\X_{3}^{(h^{\prime},w^{\prime},c^{\prime})}=SiLU(BN(X_{P(0,1,3,0)}^{(h_{1},w_{1},c_{1})}\otimes W_{3}^{(1,3,c^{\prime})})),\\X_{4}^{(h^{\prime},w^{\prime},c^{\prime})}=SiLU(BN(X_{P(3,0,1,0)}^{(h_{1},w_{1},c_{1})}\otimes W_{4}^{(3,1,c^{\prime})})).\end{gathered}X1(h′,w′,c′)=SiLU(BN(XP(1,0,0,3)(h1,w1,c1)⊗W1(1,3,c′))),X2(h′,w′,c′)=SiLU(BN(XP(0,3,0,1

最低0.47元/天 解锁文章
1570






