YOLOv11改进 | 添加注意力篇 | 一文带你改进GAM、CBAM、CA、ECA等通道注意力机制和多头注意力机制

一、本文介绍

这篇文章给大家带来的改进机制是一个汇总篇,包含一些简单的注意力机制,本来一直不想发这些内容的(网上教程太多了,发出来增加文章数量也没什么意义),但是群内的读者很多都问我这些机制所以单独出一期视频来汇总一些比较简单的注意力机制添加的方法和使用教程,本文的内容不会过度的去解释原理,更多的是从从代码的使用上和实用的角度出发去写这篇教程。

欢迎大家订阅我的专栏一起学习YOLO!  

    专栏回顾:YOLOv11改进系列专栏——本专栏持续复习各种顶会内容——科研必备


目录

 一、本文介绍

二、GAM

2.1 GAM的介绍

2.2 GAM的核心代码

三、CBAM

3.1 CBAM的介绍

3.2 CBAM核心代码

四、CA

4.1 CA的介绍

4.2 CA核心代码

五、ECA

5.1 ECA的介绍

 5.2 ECA核心代码

六、注意力机制的添加方法

6.1 修改一

6.2 修改二 

6.3 修改三 

6.4 修改四

七、yaml文件

CAECA都是通道注意力机制,用于增强模型对通道之间关系的建模能力。 CA(Channel Attention)通道注意力机制主要通过计算通道之间的相似度来确定不同通道之间的权重,然后将不同通道的特征进行加权求。具体地,对于输入的特征矩阵 $X\in R^{C\times H\times W}$,CA通道注意力机制的计算过程如下: 1. 计算不同通道之间的相似度:首先将输入特征矩阵 $X$ 沿着 $H$ $W$ 两个维度进行平均池化,得到一个大小为 $C\times 1 \times 1$ 的矩阵 $f(X)$。然后将 $f(X)$ 分别与一个大小为 $1\times C \times 1 \times 1$ 的可学习权重张量 $W_1$ $1\times 1 \times C \times 1$ 的可学习权重张量 $W_2$ 进行卷积操作,得到两个大小为 $1\times C \times 1 \times 1$ 的矩阵 $W_1 f(X)$ $W_2 f(X)$。最后将它们相加,再通过一个激活函数(如Sigmoid)得到一个大小为 $1\times C \times 1 \times 1$ 的权重矩阵 $A$,表示不同通道之间的相似度。 2. 加权求:将输入特征矩阵 $X$ 权重矩阵 $A$ 进行相乘,并沿着通道维度进行求,得到一个大小为 $1\times 1 \times H \times W$ 的特征矩阵 $Y$,表示经过通道注意力机制加权后的特征。 ECA(Efficient Channel Attention)通道注意力机制是对CA改进,主要考虑到在计算通道相似度时,同时考虑全局局部信息可以提高模型性能。具体地,ECA通道注意力机制的计算过程如下: 1. 计算全局信息:首先将输入特征矩阵 $X$ 沿着 $H$ $W$ 两个维度进行平均池化,得到一个大小为 $C\times 1 \times 1$ 的矩阵 $f(X)$。然后将 $f(X)$ 分别与一个大小为 $1\times C \times 1 \times 1$ 的可学习权重张量 $W_1$ $1\times 1 \times C \times 1$ 的可学习权重张量 $W_2$ 进行卷积操作,得到两个大小为 $1\times C \times 1 \times 1$ 的矩阵 $W_1 f(X)$ $W_2 f(X)$。最后将它们相加,再通过一个激活函数(如Sigmoid)得到一个大小为 $1\times C \times 1 \times 1$ 的权重矩阵 $A_g$,表示全局信息。 2. 计算局部信息:为了考虑局部信息,可以使用一维卷积操作对输入特征矩阵 $X$ 沿着通道维度进行卷积,得到一个大小为 $C\times H \times W$ 的特征矩阵 $X'$。然后将 $X'$ 沿着 $H$ $W$ 两个维度分别进行最大池化平均池化,并将两个池化结果拼接成一个大小为 $C\times 2 \times 1 \times 1$ 的矩阵 $f(X')$。然后将 $f(X')$ 分别与一个大小为 $1\times C \times 1 \times 1$ 的可学习权重张量 $W_3$ $1\times 1 \times C \times 1$ 的可学习权重张量 $W_4$ 进行卷积操作,得到两个大小为 $1\times C \times 1 \times 1$ 的矩阵 $W_3 f(X')$ $W_4 f(X')$。最后将它们相加,再通过一个激活函数(如Sigmoid)得到一个大小为 $1\times C \times 1 \times 1$ 的权重矩阵 $A_l$,表示局部信息。 3. 组合全局局部信息:将全局信息权重矩阵 $A_g$ 局部信息权重矩阵 $A_l$ 相加,并进行归一化,得到一个大小为 $1\times C \times 1 \times 1$ 的权重矩阵 $A$,表示全局局部信息的组合。然后将输入特征矩阵 $X$ 权重矩阵 $A$ 进行相乘,并沿着通道维度进行求,得到一个大小为 $1\times 1 \times H \times W$ 的特征矩阵 $Y$,表示经过ECA通道注意力机制加权后的特征。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Snu77

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值