BAM: Bottleneck Attention Module论文解读
简介:
ECCV2018有一篇文章是CBAM(Convolutional Block Attention Module),这篇论文组里也已经比较熟悉。BAM是由同一批团队打造,也可以称为是CBAM的姐妹篇,但注意两者’B’是不同的。
摘要:
深度神经网络的最新进展已经通过架构搜索开发出更强的代表能力。在这项工作中,我们关注一般深度神经网络中注意力的影响。我们提出了一个简单有效的注意模块,名为瓶颈注意模块(BAM),可以与任何前馈卷积神经网络集成。我们的模块沿着两个独立的路径,即通道和空间推断出注意力图。我们的模块通过许多参数在瓶颈上构建层次关注,并且可以与任何前馈模型一起以端到端的方式进行训练。
作者提出了三点贡献:
1.我们提出了一个简单有效的注意力模块BAM,它可以与任何CNN集成。
2.我们通过广泛的消融研究验证了BAM的设计。
3.我们在各种广泛的实验中验证了BAM的有效性多基准测试的基线架构(CIFAR-100,ImageNet-1K,VOC 2007
和MS COCO)。
主要结构:
分为两部分:通道注意力和空间注意力