文章目录
YOLOv11 改进入门篇 | 从原理到代码:CBAM 注意力模块的插入与涨点验证
关键词:YOLOv11、CBAM、注意力机制、PyTorch、mAP 提升、即插即用
1. 背景与目标
YOLOv11 在 COCO 上 baseline mAP 已经很高,但在小目标、密集遮挡场景仍显吃力。本文聚焦 CBAM(Convolutional Block Attention Module),给出可落地的插入方案,并验证涨点效果。
阅读收获:
- 掌握 CBAM 通道-空间双重注意力原理
- 拿到可直接粘贴的 PyTorch 代码(含 yaml 配置文件)
- 看到在 COCO 子集上的 mAP 提升 1.7~2.3 的实验结论
2. CBAM 原理深度拆解
2.1 整体结构
CBAM 包含 Channel Attention Module(CAM) 与 Spatial Attention Module(SAM) 两个串行子模块,顺序如下:
Input → CAM → SAM → Output
<