NAM: Normalization-based Attention Module
paper:https://arxiv.org/pdf/2111.12419.pdf
code:https://github.com/Christian-lyc/NAM
摘要
注意机制是近年来人们普遍关注的研究兴趣之一。它帮助深度神经网络抑制较不显著的像素或通道。以往的许多研究都集中于通过注意力操作来捕捉显著特征。这些方法成功地利用了不同特征维度上的互信息。然而,它们没有考虑到权重的贡献因素,而权重能够进一步抑制不重要的信道或像素。本文利用权重的贡献因素来改善注意机制。使用一个批处理(BN)归一化的缩放因子,它使用标准偏差来表示权重的重要性。这可以避免添加在SE、BAM和CBAM中使用的全连接和卷积层。因此,提出了一种有效的注意机制——基于标准化的注意模块(NAM)。
论文背景
许多先前的工作试图通过抑制无关紧要的权值来改善神经网络的性能。Squeeze-and-Excitation Networks(SENet) 将空间信息整合到通道特征响应中,并使用两个多层感知器(MLP)层