YOLOv10改进 | 注意力篇 | YOLOv10引入CoTAttention注意力

1. CoT介绍

1.1  摘要:具有自注意力的 Transformer 引发了自然语言处理领域的革命,最近激发了 Transformer 式架构设计的出现,在众多计算机视觉任务中取得了具有竞争力的结果。 然而,大多数现有设计直接在 2D 特征图上采用自注意力,以获得基于每个空间位置处的孤立查询和键对的注意力矩阵,但未充分利用邻居键之间的丰富上下文。 在这项工作中,我们设计了一种新颖的 Transformer 风格模块,即上下文变换器(CoT)块,用于视觉识别。 这种设计充分利用输入键之间的上下文信息来指导动态注意力矩阵的学习,从而增强视觉表征的能力。 从技术上讲,CoTblock 首先通过 3×3 卷积对输入键进行上下文编码,从而产生输入的静态上下文表示。 我们进一步将编码密钥与输入查询连接起来,通过两个连续的 1×1 卷积学习动态多头注意力矩阵。 学习到的注意力矩阵乘以输入值以实现输入的动态上下文表示。 静态和动态上下文表示的融合最终作为输出。 我们的 CoT 块很有吸引力,因为它可以轻松替换 ResNet 架构中的每个 3 × 3 卷积,从而产生名为上下文变换网络 (CoTNet) 的 Transformer 风格主干。 通过对广泛应用(例如

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值