
深度学习之注意力机制
文章平均质量分 78
xdhe1216
人工智能算法工程师
展开
-
2021年12月提出的一种全局注意力机制方法 | 即插即用
Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactionspaper:https://arxiv.org/pdf/2112.05561.pdf摘要人们研究了多种注意机制,以提高各种计算机视觉任务的性能。然而,先前的方法忽略了保留通道和空间方面的信息以增强跨维度交互的意义。因此,论文提出了一种全局注意机制,通过减少信息的损失和提高全局特征的交互,提高深度神经网...原创 2021-12-26 11:30:29 · 15359 阅读 · 16 评论 -
2022 AAAI | FLANet 全注意力网络用于语义分割
香港中文大学Fully Attentional Network for Semantic Segmentation paper:https://arxiv.org/pdf/2112.04108.pdf摘要最近的非局部自注意方法(non-local)已被证明在捕获语义分割的长期依赖关系方面是有效的。这些方法通常形成一个相似的通道特征图(通过压缩空间维度)或空间特征图(通过压缩通道)来描述沿通道或空间维度的特征关系。然而,这种做法倾向于在其他维度上压缩特征依赖性,从而导致注...原创 2021-12-09 22:00:12 · 6423 阅读 · 0 评论 -
2021NIPS | 即插即用,标准化注意力机制NAM
NAM: Normalization-based Attention Modulepaper:https://arxiv.org/pdf/2111.12419.pdfcode:https://github.com/Christian-lyc/NAM摘要注意机制是近年来人们普遍关注的研究兴趣之一。它帮助深度神经网络抑制较不显著的像素或通道。以往的许多研究都集中于通过注意力操作来捕捉显著特征。这些方法成功地利用了不同特征维度上的互信息。然而,它们没有考虑到权重的贡献因素,...原创 2021-12-01 21:45:04 · 11026 阅读 · 13 评论 -
ICCV 2021 | 4行代码的残差注意力提升多标签分类!!!
南京大学Residual Attention: A Simple but Effective Method for Multi-Label Recognitionpaper:https://arxiv.org/abs/2108.02456摘要多标签图像识别是一项具有挑战性的计算机视觉实用任务。然而,这一领域的往往发展的特点是使用复杂的方法、大量的计算和缺乏直观的解释。为了有效地捕获来自不同类别的对象所占据的不同空间区域,提出了一个极其的简单模块,命名为类特定的残余注意(CSRA)。CSR..原创 2021-08-15 15:21:38 · 2141 阅读 · 0 评论 -
2021刷新COCO和Cityscapes | Polarized Self-Attention:极化自注意力机制(keras实现)
Polarized Self-Attention: Towards High-quality Pixel-wise Regressionpaper:https://arxiv.org/pdf/2107.00782.pdfcode:https://github.com/DeLightCMU/PSAdef _PSA(x, mode='p'): context_channel = spatial_pool(x, mode) if mode == 'p': con...原创 2021-08-03 20:48:30 · 3614 阅读 · 1 评论 -
WACV 2020 | ULSAM: 超轻量级子空间注意力机制(keras实现)
def _ULSAM(inputs, num_splits=4): channel_axis = 1 if K.image_data_format() == 'channels_first' else -1 sub_feat = Lambda(lambda x: tf.split(x, num_splits, axis=channel_axis))(inputs) features = [] for i in range(num_splits): x = ..原创 2021-08-02 21:36:34 · 2880 阅读 · 0 评论 -
浙大 | FcaNet:频域通道注意力机制(keras实现)
paper:http://arxiv.org/abs/2012.11879code:https://github.com/dcdcvgroup/FcaNet这篇论文,将GAP推广到一种更为一般的2维的离散余弦变换(DCT)形式,通过引入更多的frequency analysis重新考虑通道的注意力。摘要注意机制,特别是通道注意,在计算机视觉领域取得了巨大的成功。许多工作集中在如何设计有效的通道注意机制,而忽略了一个基本问题,即通道注意机制使用标量来表示通道,这由于大量信息损失而困难。在这项工原创 2021-07-31 10:37:57 · 5060 阅读 · 11 评论 -
CVPR 2021 | DMSANet:双多尺度注意力机制
paper:https://arxiv.org/pdf/2106.08382.pdfcode:https://github.com/abhinavsagar/DMSANet双多尺度注意力网络(DMSANet)在图像分类、目标检测和实例分割上均适用,性能优于EPSANet、FcaNet和SENet等网络摘要注意机制最近在计算机视觉领域很受欢迎。为了提高网络的性能,已经做了许多工作,尽管它几乎总是会增加计算复杂度。文章提出了一种新的注意模块,它不仅性能最好,而且具有较少的参数。文章中的注意模块可原创 2021-07-30 16:39:31 · 9404 阅读 · 8 评论 -
ICML 2021 | SimAM 无参注意力机制!(keras实现)
中山大学paper:http://proceedings.mlr.press/v139/yang21o/yang21o.pdfcode:https://github.com/ZjjConan/SimAM原创 2021-07-30 14:43:49 · 5665 阅读 · 7 评论 -
2021 CVPR | EPSANet一种金字塔拆分注意力机制(keras实现)
paper:https://arxiv.org/pdf/2105.14447v1.pdfcode:https://github.com/murufeng/EPSANet摘要近年来,研究表明,通过加入注意力机制可以有效地提高深度卷积神经网络的性能。本文提出了一种新的轻量级和有效的注意方法——金字塔拆分注意(PSA)模块。通过用ResNet瓶颈块中的PSA模块代替3x3卷积,得到了一种名为有效金字塔拆分注意(EPSA)的新表示块。EPSA模块可以很容易地作为一个即插即用组件添加到一个完善的主干网络中原创 2021-07-29 16:59:36 · 8508 阅读 · 21 评论 -
CVPR 2021 | Coordinate Attention for Efficient Mobile Network Design注意力机制再下一城(Keras实现)
paper:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG原创 2021-06-08 21:40:28 · 2349 阅读 · 17 评论