YOLO11改进|注意力机制篇|引入DualAttention注意力

在这里插入图片描述

一、【DualAttention】注意力机制

1.1【DualAttention】注意力介绍

在这里插入图片描述

下图是【DualAttention】的结构图,让我们简单分析一下运行过程和优势

处理过程

  • 像素路径(Pixel Pathway):
  • 输入特征 𝑥首先经过 Layer Normalization,对输入进行标准化处理。
  • 接着,经过 多头注意力机制(Multi-Head Attention),这一机制使得网络能够在像素级别的细节中捕捉远距离依赖关系。
  • 多头注意力之后,再次进行 Layer Normalization,随后通过一个 前馈神经网络(Feed Forward Network, FFN),进一步对特征进行线性变换和非线性处理。
  • 该路径的设计目标是增强网络对像素细节的敏感度,捕捉图像的局部特征。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值