目录
1.简介
论文地址
本文提出的BoTNet是一种简单高效的网络,有效的将SA应用到多种视觉任务,如图像识别、目标检测、实例分割任务。通过将ResNet50中最后三个bottleneck模块的空间卷积替换为全局的SA操作,有效提升了基线模型在签署任务上的性能。
Section I
常用的CNN大多采用3x3的卷积核,鉴于卷积操作可以有效的不糊哦局部信息,但是对于一些视觉任务如目标检测、实例分割、关键点检测还需要建立长程依赖关系。比如实例分割中需要收集场景相关的信息才能学习物体之间的关系;那么为了吧局部信息聚合就需要堆叠多个卷积层。但基于non-local操作可以更有效,也不需要堆叠那么多层。
而建模长程依赖对NLP任务也十分重要,Self-Attention可以有效学习每一对实体之间的关联,基于SA组成的Transformer已经成为NLP的主流,如GPT和BERT。
BoTNeT:YOLOv7的改进版,融合Transformer于目标检测

本文介绍了如何将BoTNet应用于YOLOv7,通过将ResNet最后三个bottleneck模块的卷积替换为全局的Multi-Head Self-Attention(MHSA),在COCO上提高了目标检测精度1.2%,并在实例分割任务中对小物体检测有显著提升。文章详细阐述了BoTNet的设计原理和实现步骤,并指出其简洁性使其成为未来视觉任务研究的潜在backbone。
订阅专栏 解锁全文
2887

被折叠的 条评论
为什么被折叠?



