摘要:通过将注意力模块嵌入其中可以有效地提高深度卷积神经网络的性能。在这项工作中,提出了一种新颖的轻巧有效的注意方法,称为金字塔挤压注意 (PSA) 模块。通过在ResNet的瓶颈块中用PSA模块替换3x3卷积,获得了一种新颖的代表性块,称为有效金字塔挤压注意 (EPSA)。可以轻松地将EPSA块作为即插即用组件添加到完善的骨干网中,并且可以实现模型性能的显着改善。因此,通过堆叠这些ResNet风格的EPSA块,在这项工作中开发了一种简单有效的主干体系结构EPSANet。相应地,所提出的EPSANet可以为各种计算机视觉任务提供更强的多尺度表示能力,包括但不限于图像分类、对象检测、实例分割等。EPSANet的性能优于大多数最先进的渠道关注方法。
引言
注意机制广泛应用于许多计算机视觉领域,例如图像分类,对象检测,实例分割,语义分割,场景解析和动作定位 [1、2、3、4、5、6、7]。具体来说,注意方法有两种,即渠道注意和空间注意。最近,已经证明,通过采用渠道注意力,空间注意力或两者都可以实现显着的性能改进 [8,9,10,11,12]。最常用的渠道关注方法是挤压和引用 (SE) 模块 [13],它可以以相当低的成本显着提高性能。SENet的缺点在于它忽略了空间信息的重要性。因此,提出了瓶颈注意模块 (BAM) [14] 和卷积块注意模块 (CBAM) [5],通过有效结合空间和渠道注意来丰富注意图。然而
本文提出了一种新的轻量级高效注意力模块——金字塔挤压注意(PSA)模块,用于增强深度卷积神经网络。PSA模块通过多尺度金字塔卷积结构捕获空间信息,建立远程通道依赖性。通过将PSA模块集成到ResNet的瓶颈块中,创建了有效金字塔挤压注意(EPSA)块,用于构建EPSANet主干网络。EPSANet在ImageNet和COCO数据集上的图像分类、对象检测和实例分割任务上表现出色,同时保持较低的计算复杂度。
订阅专栏 解锁全文
3228

被折叠的 条评论
为什么被折叠?



