在计算机视觉领域,目标检测一直是一个重要的研究方向。近年来,YOLO(You Only Look Once)系列模型凭借其高效的实时检测能力,成为了业界的标杆。最新发布的YOLOv11在前几代模型的基础上进行了多项改进。而单头自注意力 (SHSA)作为一种高效的注意力机制,也在视觉任务中展现了其独特的优势。其通过在输入通道的一部分上应用单头注意力来减少计算冗余,同时保留全局和局部信息的结合,从而提高了效率和准确性。接下来,本文先介绍SHSA基本原理,然后探讨如何将SHSA与YOLOv11结合,以进一步提升目标检测的效率和准确性。
代码:YOLOv8_improve/YOLOv11.md at master · tgf123/YOLOv8_improve
1. 单头自注意力Single-Head Self-Attention(SHSA)结构介绍
SHSA通过仅对部分输入通道应用单头注意