[论文笔记] Non-local Neural Networks

[论文笔记] Non-local Neural Networks

论文链接

第一遍初读

回答三个基本问题

  1. 这篇论文主要表达的是什么?作者写这篇论文的目的是什么?或者说这篇论文做出了什么成果?

    ​ 成果:we present non-local operations as a generic family of building blocks for capturing long-range dependencies(我感到这个英文表达意思比较精准,就没有自己翻译)

  2. 这篇论文是如何论证的?作者使用了哪些论据来支持观点或者成果。

    ​ 首先,作者先举出Convolutional and recurrent operations 的缺点-低效性,优化难还有迭代建立模型带来的信息来回传输难。

    ​ 其次,表示,non-local operations 可以解决上面的部分缺点 ,而且表明了这种操作的优点- 直接计算 long-range dependecies, 仅需要一些layer就可以得到最优解还有 输出和输入大小相同。

    ​ 最后,作者展示了这种操作在音频分类中的高效性。此外,由于这是种 a generi family family of building blocks ,故在其他领域如静态图片识别,物体检测,分割和姿势估计上取得了很好的效果。

  3. 相关的工作有哪些?在这篇论文之前有什么已经成立或者获得的成果?作者的观点/成果主要是建立在哪个的基础上?作者的观点/成果和别人的突出在哪里?

    建立的基础

    1. Non-local image processing

    2. Graphical models

      不同点: In contrast, our method is a simpler feedforward block for computing non-local filtering.
      Unlike these methods that were developed for segmentation, our general-purpose component is applied for classification and detection.

    3. Feedforward modeling for sequences

    4. Self-attention

      不同点: this sense our work bridges self-attention for machine translation to

### Non-local Neural Networks 的基本原理 Non-local Neural Networks 是一种用于捕捉图像或序列数据中全局依赖关系的方法。其核心思想来源于非局部均值方法[^1],并进一步扩展到神经网络领域。以下是对其基本原理的详细介绍: #### 1. 非局部操作的核心概念 Non-local 操作旨在捕获输入信号中的远距离交互关系。它通过计算任意两个位置之间的响应来实现这一点。具体来说,对于给定的位置 \(i\) 和其他所有位置 \(j\),Non-local 模块会基于它们的关系权重调整该位置的特征向量。 这一过程可以被形式化描述为以下公式: \[ y_i = \frac{1}{C(x)} \sum_{j} f(x_i, x_j) g(x_j), \] 其中, - \(f(\cdot)\) 表示一对位置之间关系的函数; - \(g(\cdot)\) 表示对另一个位置特征的变换; - \(C(x)\) 是归一化项,通常取为常数或者由 \(f(\cdot)\) 定义的总和。 这种机制允许模型不仅关注局部邻域内的信息,还能够利用更广泛的上下文信息[^3]。 #### 2. 关系推理模块的影响 Santoro 等人在研究中提出了一个简单的神经网络模块用于关系推理[^2]。他们的工作表明,在处理复杂场景理解任务时,显式建模对象间的关系是非常重要的。这启发了后续关于如何设计有效的关系感知架构的研究方向之一就是引入 non-local 结构作为基础组件。 #### 3. 构造 Non-local 模块 为了便于集成进现有各种类型的深度学习框架之中,论文给出了具体的实现方式——即所谓的 “non-local block”。这个构建单元内部包含了前面提及过的 non-local 运算逻辑,并且可以通过堆叠多个这样的 blocks 来增强整个系统的表达能力[^4]。 下面是一个 Python 实现的例子,展示了如何在一个标准 CNN 层之后加入 Non-local Block: ```python import torch.nn as nn import torch class NonLocalBlock(nn.Module): def __init__(self, in_channels, inter_channels=None): super(NonLocalBlock, self).__init__() self.in_channels = in_channels self.inter_channels = inter_channels if self.inter_channels is None: self.inter_channels = in_channels // 2 conv_nd = nn.Conv2d bn = nn.BatchNorm2d self.g = conv_nd(in_channels=self.in_channels, out_channels=self.inter_channels, kernel_size=1) self.W = conv_nd(in_channels=self.inter_channels, out_channels=self.in_channels, kernel_size=1) self.theta = conv_nd(in_channels=self.in_channels, out_channels=self.inter_channels, kernel_size=1) self.phi = conv_nd(in_channels=self.in_channels, out_channels=self.inter_channels, kernel_size=1) self.bn = bn(self.in_channels) def forward(self, x): batch_size = x.size(0) g_x = self.g(x).view(batch_size, self.inter_channels, -1) g_x = g_x.permute(0, 2, 1) theta_x = self.theta(x).view(batch_size, self.inter_channels, -1) theta_x = theta_x.permute(0, 2, 1) phi_x = self.phi(x).view(batch_size, self.inter_channels, -1) f = torch.matmul(theta_x, phi_x) f_div_C = F.softmax(f, dim=-1) y = torch.matmul(f_div_C, g_x) y = y.permute(0, 2, 1).contiguous() y = y.view(batch_size, self.inter_channels, *x.size()[2:]) W_y = self.W(y) z = W_y + x return z ``` 此代码片段定义了一个通用版本的 Non-local Block 类型,适用于二维空间上的张量运算(例如图片)。注意这里采用了嵌入高斯相似度衡量法来进行注意力分配。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值