最近在看论文,发现很多的论文都用到了attentive moudule。
这也得益于越来越多的实验证明自注意力机制对于:什么是重要的?这个问题的合理解决。相比传统的直接生成特征图,对于每一个item进行同样的卷积提取特征等操作,让神经网络来自己学习哪部分是前景,哪部分是背景噪声,不重要,加入一个attentive module是一个很聪明的办法。
现在学术界涌现出许多的attentive module的设计方法,主要还是应用在2d目标检测领域。
这篇博客主要是对于一些开源的影响力大的模块进行一个介绍。
CMBA
论文题目:CBAM: Convolutional Block Attention Module
eccv2018 已经开源

这篇文章思考了两个问题,对于一个输入的特征图(HWC),什么(what)是重要的,以及哪一块(where)是重要的。

所以文章架构如上,这个attention module主要包含两个部分:
channel attention module
这个部分解决(what)的问题。
对于输入的特征图,这是个什么东西?我们在网络中常用的方法又max pool 和mean pool。这两种featuer aggregation的方法各有优劣,文章将两者结合起来进行操作。

其实没啥好说的,有深度学习

本文介绍了深度学习中广泛采用的注意力机制模块,如CBAM、BAM和CoordinateAttention等。这些模块通过通道注意力和空间注意力提升模型对特征图重要性的识别。CBAM结合了通道和空间注意力,BAM利用膨胀卷积扩大感受野,而CoordinateAttention综合通道和位置信息。这些方法在减少参数量的同时提高了模型性能,适用于多种神经网络架构。
最低0.47元/天 解锁文章
2万+





