CBAM: Convolutional Block Attention Module------论文理解

CBAM(Convolutional Block Attention Module)是一种用于卷积神经网络的注意力模块,通过通道和空间维度的注意力图增强特征表示。模块包括通道注意力和空间注意力两部分,分别利用平均池化和最大池化,以及卷积操作来聚焦重要特征。实验表明,CBAM可以提高网络的表现力,并且顺序排列的通道注意力和空间注意力效果更佳。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考博客:https://blog.youkuaiyun.com/u013738531/article/details/82731257

pytorch代码:https://github.com/luuuyi/CBAM.PyTorch

1. 概述

本论文提出了一种简单但有效的注意力网络---Convolutional Block Attention Module(CBAM)。给定一个中间的特征图,我们的模块沿着两个不同的维度依次计算注意力图,分别是通道上和空间上,然后将输出的注意力图与输入的特征图相乘,这样做是为了可以自适应特征改进。由于CBAM是轻量级的,因此它可以融合到任何一个CNN架构中,并且有可忽略不计的开销。


卷积神经网络在很大程度上推动了计算机视觉任务的发展,最近的研究主要研究了网络的三个重要因素:深度,宽度,维度
深度的代表:VGG,ResNet;宽度的代表:GoogLeNet;维度的代表: Xception, ResNeXt。

除了上述三点,我们研究了架构设计的不同方面:注意力。注意力不仅告诉我们要注意到哪块,而且提高感兴趣区域的代表性。我们的目标是通过使用注意机制来增加表现力:注意到重要的特征同时压缩不必要的特征

由于卷积运算通过将跨通道和空间信息混合在一起来提取信息特征,我们采用本文提出的CBAM模块来强调这两个主要维度的有意义的特征:通道维度和空间维度。

2. Convolutional Block Attention Module

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值