
目录
一、【DualAttention】注意力机制
1.1【DualAttention】注意力介绍

下图是【DualAttention】的结构图,让我们简单分析一下运行过程和优势
处理过程:
- 像素路径(Pixel Pathway):
- 输入特征 𝑥首先经过 Layer Normalization,对输入进行标准化处理。
- 接着,经过 多头注意力机制(Multi-Head Attention),这一机制使得网络能够在像素级别的细节中捕捉远距离依赖关系。
- 多头注意力之后,再次进行 Layer Normalization,随后通过一个 前馈神经网络(Feed Forward Network, FFN),进一步对特征进行线性变换和非线性处理。
- 该路径的设计目标是增强网络对像素细节的敏感度,捕捉图像的局部特征。
订阅专栏 解锁全文
337

被折叠的 条评论
为什么被折叠?



