YOLOv8模型改进2【增加CBAM注意力】

本文介绍了如何将CBAM注意力机制应用到YOLOv8模型中,以提升目标检测性能。CBAM结合空间和通道注意力,通过在YOLOv8的关键位置集成,实现在验证集和测试集上的良好表现。文章提供了代码修改路径和训练过程的说明。

一、CBAM注意力机制简介

CBAM注意力机制(Convolutional Block Attention Module)。它结合了空间注意力机制(Spatial Attention Module)以及通道注意力机制(Channel Attention Module),以此来提升图片分类以及目标检测的结果。

它与SEnet的区别是,SEnet注意力机制只关注通道信息,CBAM注意力机制在通道信息的基础上还增加了对于空间信息的处理。

CBAM结构图如下图所示:(输入特征经过通道注意力机制模块之后,再经过空间注意力机制模块,得到输出特征
在这里插入图片描述
通道注意力机制模块的结构图如下图所示:
在这里插入图片描述

空间注意力机制模块的结构图如下图所示:
在这里插入图片描述

CBAM模块集成到ResBlock中的结构图如下所示:
在这里插入图片描述

目标检测任务中,CBAM模块在MS COCO验证集上的表现如下:
在这里插入图片描述
目标检测任务中,CBAM模块在VOC 2007测试集上的表现如下:
在这里插入图片描述

【注意:1】具体的细节请移步论文:https://arxiv.org/pdf/1807.06521.pdf
【注意:2】GIthub代码:https://github.com/Jongchan/attention-module/blob/master/MODELS/cbam.py

二、增加CBAM注意力机制到YOLOv8模型上

(写在前面:增加CBAM注意力机制的方法与增加SE的方法是一样的,区别在于,YOLOv8原来就自带CBAM模块,所以修改的地方会少一些)

**修改的还是下面的四个地方

【1: …/ultralytics/nn/modules/conv.py

conv.py中该增加CBAM模块的地方都已经增加了,可以不用管,或者你检查一下,如果缺少CBAM的代码,请加入以下内容,然后在__all__ =中声明一下,具体的可以对照一下这篇文章,加深一下印象:**https://blog.youkuaiyun.com/A__MP/article/details/136515383?spm=1001.2014.3001.5502

class CBAM(nn.Module):
    """Convolutional Block Attention Module."""

    def __init__(self, c1, kernel_size=7):
        """Initialize CBAM with given input channel (c1) and kernel size."""
        super().__init__()
        self.channel_attention = ChannelAttention(c1)
        self.spatial_attention = SpatialAttention(kernel_size)

    def forward(self, x):
        """Applies the forward pass through C1 module."""
        return self.spatial_attention(self.channel_attention(x))


class Concat(nn.Module):
    """Concatenate a list of tensors along dimension."""

    def __init__(self, dimension=1):
        """Concatenates a list of tensors along a specified dimension."""
        super().__init__()
        self.d = dimension

    def forward(self, x):
        """Forward pass for the YOLOv8 mask Proto module."""
        return torch.cat(x, self.d)

【2:…ultralytics-main/ultralytics/nn/modules/__init__.py

### YOLOv8 中通过 CBAM 注意力机制进行改进的方法实现 #### 1. 修改配置文件 (YAML 文件) 为了在 YOLOv8 中引入 CBAM 注意力机制,首先需要修改模型的 YAML 配置文件。具体操作如下: 将 `yolov8.yaml` 复制并重命名为 `yolov8n-CBAM.yaml`,路径位于 `ultralytics/ultralytics/cfg/models/v8/` 下[^1]。在此基础上,在网络结构定义部分增加 CBAM 层的相关参数设置。 例如,可以在 Backbone 或 Neck 的某些卷积层之后插入 CBAM 模块的位置标记出来,并调整对应的超参数以适配 CBAM 的需求。 --- #### 2. 添加 CBAM 模块到代码中 CBAM(Convolutional Block Attention Module)是一种通道和空间注意力机制,能够增强特征图的重要区域表示能力。以下是其核心功能分解及其 Python 实现方式: - **Channel Attention**: 计算输入特征图上各个通道的重要性权重。 - **Spatial Attention**: 基于通道加权后的特征图计算空间维度上的重要性分布。 下面是基于 PyTorch 的 CBAM 模块实现代码示例[^3]: ```python import torch import torch.nn as nn class ChannelAttention(nn.Module): def __init__(self, in_planes, ratio=16): super(ChannelAttention, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.max_pool = nn.AdaptiveMaxPool2d(1) self.fc1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False) self.relu1 = nn.ReLU() self.fc2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x)))) max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x)))) out = avg_out + max_out return self.sigmoid(out) class SpatialAttention(nn.Module): def __init__(self, kernel_size=7): super(SpatialAttention, self).__init__() assert kernel_size in (3, 7), 'kernel size must be 3 or 7' padding = 3 if kernel_size == 7 else 1 self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): avg_out = torch.mean(x, dim=1, keepdim=True) max_out, _ = torch.max(x, dim=1, keepdim=True) x = torch.cat([avg_out, max_out], dim=1) x = self.conv1(x) return self.sigmoid(x) class CBAM(nn.Module): def __init__(self, planes, reduction_ratio=16, kernel_size=7): super(CBAM, self).__init__() self.channel_attention = ChannelAttention(planes, reduction_ratio) self.spatial_attention = SpatialAttention(kernel_size) def forward(self, x): out = self.channel_attention(x) * x out = self.spatial_attention(out) * out return out ``` 上述代码实现了完整的 CBAM 结构,其中包含了两个子模块:`ChannelAttention` 和 `SpatialAttention`。 --- #### 3. 整合 CBAMYOLOv8 架构中 接下来,需将 CBAM 模块嵌入到 YOLOv8 的架构中。通常可以选择在网络的中间阶段(Backbone 或 Neck)添加 CBAM 模块来提升局部特征表达能力。 假设我们希望在某个特定的卷积层后应用 CBAM,则可以按照以下方式进行改造: ```python from ultralytics import YOLO from models.common import Conv # 假设这是 YOLOv8 提供的基础卷积类 # 定义一个新的带有 CBAM 的卷积层 class ConvWithCBAM(Conv): def __init__(self, c1, c2, k=1, s=1, p=None, g=1, act=True): super().__init__(c1, c2, k, s, p, g, act) self.cbam = CBAM(c2) def forward(self, x): x = super().forward(x) x = self.cbam(x) return x ``` 随后,在构建模型时替换原有的标准卷积层为自定义的 `ConvWithCBAM` 卷积层即可完成集成[^2]。 --- #### 4. 对比实验验证效果 最后一步是对新设计的模型进行训练与测试评估。可以通过对比原始 YOLOv8 和集成了 CBAM 后的新版本之间的性能指标变化情况来判断改进的有效性。主要关注以下几个方面: - mAP@0.5:0.95 是否有所提高; - 推理速度是否有显著下降; - 参数量增长幅度是否合理;等等。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小的学徒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值