一、本文介绍 本文给大家带来的改进机制是EMAttention注意力机制,它的核心思想是:重塑部分通道到批次维度,并将通道维度分组为多个子特征,以保留每个通道的信息并减少计算开销。EMA模块通过编码全局信息来重新校准每个并行分支中的通道权重,并通过跨维度交互来捕获像素级别的关系。本文首先给大家提供效果图(由基础版本未作任何修改和修改了本文的改进机制的效果对比图),然后介绍其主要的原理,最后手把手教大家如何添加该注意力机制。 专栏地址:YOLOv9有效涨点专栏-持续复现各种顶会内容-有效涨点-全网改进最全的专栏 目录 一、本文介绍 二、EMAttention的框架原理 三、EMAttention的核心代码 四、手把手教你添加EMAttention 4.1 EMAttention添加步骤 4.1.1 修改一 4.1.2 修改二 4.1.3 修改三 4.1.4 修改四 4.2 EMAttention的yaml文件和训练截图 4.2.1 EMAttention的yaml版本一(推荐) 4.2.2 EMAttention的yaml版本二 4.2.3 EMAttention的yaml版本三 4.3 EMAttention的训练过程截图 五、本文总结 二、EMAttention的框架原理 官方论文地址: 官方论文地址 官方代码地址: 官方代码地址