Attention
文章平均质量分 93
00000cj
计算机视觉,论文阅读记录
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DANet(CVPR 2019)原理与代码解析
本文提出了一种新的语义分割框架,称为双注意力网络(DANet),用于自然场景图像分割。该框架旨在通过自注意力机制分别捕获空间和通道维度上的特征依赖性,以解决现有方法在处理复杂和多样化场景时的局限性。具体包括提出了位置注意力模块和通道注意力模块,分别对空间和通道维度上的语义特征进行建模,以自适应地整合局部特征与全局依赖性。在注意力模块中,通过自注意力机制,模型能够在空间维度上捕捉任何两个位置之间的语义相互依赖性,在通道维度上强调相互依赖的通道映射。原创 2024-06-02 12:29:25 · 5518 阅读 · 2 评论 -
CCNet(ICCV 2019)
其中 \(\mathbf{H}'_{\mathbf{u}}\) 是 \(\mathbf{H}'\in \mathbb{R}^{C\times W\times H}\) 中位置 \(\mathbf{u}\) 处的特征向量,\(\mathbf{A}_{i,\mathbf{u}}\) 是 \(\mathbf{A}\) 中位置 \(\mathbf{u}\) 通道 \(i\) 处的标量值。在得到 \(\mathbf{Q}\) 和 \(\mathbf{K}\) 后,我们通过。operation来聚合上下文信息。原创 2024-06-01 12:00:28 · 1013 阅读 · 0 评论 -
Coordinate Attention(CVPR 2021)
本文提出了一种新的有效的注意力机制Coordinate Attention,将位置信息嵌入到通道注意力中,使移动网络能够关注更大的区域范围,同时避免产生显著的计算开销。为了缓解2D全局池化造成的位置信息丢失,我们将通道注意力分解为两个并行的一维特征编码过程,从而有效的将位置坐标信息整合到生成的特征图中。具体来说,我们的方法利用两个一维全局池化操作,分别沿着垂直和水平方向将输入特征聚合到两个独立的方向感知的direction-aware特征图中。这两个嵌入了特定方向信息的特征图随后被分别编码成两个attent原创 2024-03-12 20:58:17 · 2544 阅读 · 0 评论 -
GCNet: Global Context Network(ICCV 2019)原理与代码解析
本文通过观察发现non-local block针对每个query position计算的attention map最终结果是独立于查询位置的,那么就没有必要针对每个查询位置计算了,因此提出计算一个通用的attention map并应用于输入feature map上的所有位置,大大减少了计算量的同时又没有导致性能的降低。此外,结合SE block,设计了一个新的Global Context (GC) block,既轻量又可以有效地建模全局上下文。GC Block结合了Non-local block和SE bl原创 2023-03-19 19:49:48 · 11015 阅读 · 3 评论 -
Gather-Excite Attention
本文的切入点在于contextexploitation,其实就是空间维度的注意力机制,和BAM、CBAM的区别在于BAM在空间维度使用的普通卷积,最后输出的是单通道的特征图,因此在与原始特征图进行element-wisemultiplication时每一个像素在所有通道上的权重是相同的。\(GE-\theta\)中gather是通过深度卷积实现的。\(GE-\theta^{+}\)则是结合了SE的思想,在\(GE-\theta\)的后面先通过一个1x1卷积缩减通道,再通过一个1x1卷积还原回去。......原创 2022-08-27 17:06:13 · 1102 阅读 · 0 评论 -
Non-local Neural Networks
paper:Non-local Neural Networkscode:https://github.com/AlexHex7/Non-local_pytorch前言在深度神经网络中,捕获long-range dependencies是至关重要的。对于序列数据,比如语音、文本,通常采用RNN对long-range dependency进行建模。对于图像数据,是通过堆叠卷积形成大的感受野来解决该问题的。CNN和RNN一次都只能处理一个局部邻域的信息,不管是在空间或是时间维度,因此只有不断...原创 2022-05-04 23:54:18 · 2008 阅读 · 0 评论 -
ECA-Net: Efficient Channel Attention
论文Efficient Channel Attention for Deep Convolutional Neural Networks前言SENet首先通过global average pooling对每个通道的空间信息进行编码,然后接两个FC层学习通道间的依赖关系,最后接sigmoid激活函数,每个通道输出一个0-1之间的权重,再与输入相乘得到最终结果,这种通道注意力机制可以让模型通过学习的权重去增强更有用通道的信息,抑制没那么重要的通道信息。为了减少参数和计算量,第一个FC将通道数映射为原来.原创 2022-03-30 13:10:38 · 1220 阅读 · 0 评论 -
SKNet: Selective Kernel Networks
Selective Kernel Networkshttps://github.com/implus/PytorchInsightSKNet——SENet孪生兄弟篇 - 知乎https://github.com/ResearchingDexter/SKNet_pytorchhttps://github.com/pppLang/SKNet原创 2022-02-08 12:52:33 · 2127 阅读 · 0 评论 -
CBAM: Convolutional Block Attention Module
CBAM: Convolutional Block Attention ModuleGitHub - Jongchan/attention-module: Official PyTorch code for "BAM: Bottleneck Attention Module (BMVC2018)" and "CBAM: Convolutional Block Attention Module (ECCV2018)"Channel attention module对于输入特征图,分别使用ava原创 2022-01-25 13:16:09 · 1255 阅读 · 0 评论 -
BAM: Bottleneck Attention Module
BAM: Bottleneck Attention ModuleGitHub - Jongchan/attention-module: Official PyTorch code for "BAM: Bottleneck Attention Module (BMVC2018)" and "CBAM: Convolutional Block Attention Module (ECCV2018)"Given a 3D feature map, BAM produces a 3D attention原创 2022-01-23 23:24:39 · 3701 阅读 · 0 评论 -
SENet: Squeeze-and-Excitation Networks
Squeeze-and-Excitation Networks原创 2022-01-15 13:00:49 · 2310 阅读 · 0 评论
分享