Convolutional Block Attention Module (CBAM) 是一种用于提高卷积神经网络性能的注意力机制。其公式推导主要分为两部分:
- Channel Attention: 首先,我们计算每个通道的重要性权重。这可以通过使用全局平均池化和全局最大池化来实现。公式如下:
$$ w_i = \frac{1}{1 + exp(-\frac{1}{\sqrt{d}}(avg_i - max_i))} $$
其中 $d$ 为通道维度,$avg_i$ 和 $max_i$ 分别表示第 $i$ 个通道的全局平均值和全局最大值。
- Spatial Attention: