论文阅读笔记:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows


  • 读了,但是只能读一点,仅作涉猎

Author: Yue Cao et.al.
Translate from: arXiv:2103.14030v2
Cite as: Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., Zhang, Z., Lin, S.C., & Guo, B. (2021). Swin Transformer: Hierarchical Vision Transformer using Shifted Windows. ArXiv, abs/2103.14030.
Open source: https://github. com/microsoft/Swin Transformer

摘要

本文提出了一种新的ViT,称为Swin Transformer,它可以作为CV领域的通用backbones。把Transformer从NLP用到CV的挑战来自于两个领域之间的差异,例如视觉对象的规模以及图像中像素的高分辨率。为了解决这些差异,我们提出了一种分层 (hierarchical) Transformer,它的表示是用移位窗口 (Shifted windows) 计算的。

移位窗口的设计限制将Self-attenion的计算限制在非重叠的局部窗口中,同时允许跨窗口的连接,从而提高了效率。
这种分层结构具有在不同尺度下建模的灵活性,并且相对于图像大小具有线性计算复杂度。

Swin Transformer的这些特性使其与广泛的视觉任务兼容,包括图像分类(ImageNet-1K),密集预测任务,目标检测(COCO)和语义分割(ADE20K)。它的性能超过了之前的最先进水平,这表明了基于ViT的模型作为视觉backbones的潜力。分层设计和移位窗口方法也证明对所有MLP体系结构都是有益的。

1 简介

计算机视觉中的建模一直由卷积神经网络(CNN)主导。CNN架构通过更大的规模、更广泛的连接和更复杂的卷积形式变得越来越强大。CNN已成为各种视觉任务的Backbones。

事实上,Shifted windows的思想就和CNN中Conv的计算方法很像

另一方面,自然语言处理(NLP)中网络体系结构的演变走了一条完全不同的道路,最流行的体系结构是Transformer。它是为序列建模 (sequence modeling)转换任务而设计的,它以关注数据中的long-range的依赖关系而著称。它在NLP领域的巨大成功促使研究人员研究它对CV的适应性,最近它在某些任务上展示了有希望的结果,特别是图像分类和联合视觉语言建模。

在本文中,我们试图扩展Transformer以便使其作为计算机视觉的通用backbones,就像CNN所做的那样。我们观察到,将Transformer从NLP迁移到CV领域的挑战可以通过两种模式之间的差异来解释。

  • 其中一个差异涉及规模。与作为语言转换器处理基本元素的单词token不同,视觉元素在规模上可能有很大差异。在现有的基于Transformer的模型中,token都是固定比例的,这一属性不适合这些vision应用。
  • 另一个区别是图像中像素的分辨率比文本中的单词高得多。存在许多视觉任务,例如需要在像素级进行密集预测的语义分割,这对于高分辨率图像是很困难的,因为Self-attention的计算复杂度是图像大小的二次方。

在这里插入图片描述
图1(a)Swin Transformer通过在更深的层中合并图像块(灰色分块)来构建分层的feature maps,并且由于只在每个局部窗口(红色分块)内计算Self-attention,因此对于输入图像大小具有线性计算复杂性。(b)相比之下,以前的ViT生成单一低分辨率的feature maps,并且由于计算全局自我注意,输入图像大小具有二次计算复杂性。

我们提出了一种通用的backbone,称为Swin-Transformer,它构造了层次化feature maps,并且具有与图像大小成线性关系的计算复杂度。如图1所示,Swin Transformer从小尺寸的patch开始,逐步合并更深层次的Transformer层中的相邻patch,构建层次表示。有了这些层次化feature maps,Swin Transformer模型可以方便地利用先进技术进行密集预测。线性计算复杂性是通过在分割图像的非重叠窗口内局部计算Self-attention来实现的。每个窗口中的patch数量是固定的,因此复杂性与图像大小成线性关系。Swin Transformer与以前基于Transformer的体系结构不同,后者生成单一分辨率的feature maps,并且具有二次方复杂度。
在这里插入图片描述

图2 一个用于计算Self-attention的shifted window方法的示例。在 l l l层(左),采用规则的window划分方案,并在每个窗口内计算Self-attention。在下一层 l + 1 l+1 l+1(右)中,窗口分区被shifted,从而产生新的窗口。因此新窗口中的Self-attention计算跨越了先前窗口的边界,建立了它们之间的联系。

Swin Transformer的一个关键设计元素是在连续的shifted window分区,如图2所示。这种策略在考虑真实世界的时延(latency)方面也很有效:window中的所有query patch都共享相同的key集合,这有助于硬件访问内存。早期的基于滑动窗口的自我注意方法[33,50]由于不同query像素的key集合不同,在普通硬件上的延迟问题更严重。实验表明,shifted window方法比sliding window方法具有更低的延迟,但建模能力相似。

注意!移动的是窗口的划分

### Swin Transformer 的复现教程 #### 1. 模型概述 Swin Transformer 是一种分层视觉变换器 (Hierarchical Vision Transformer),它通过滑动窗口机制构建局部表示并支持跨窗口连接[^1]。该模型的核心组件包括分层设计、移位窗口 (Shifted Window) 和自注意力机制。 #### 2. 数据预处理 数据预处理阶段涉及将输入图像划分为多个 patch,并将其映射到 token 序列中。具体过程如下: - 将输入图像切分成大小为 \(P \times P\) 的 patches。 - 对每个 patch 进行线性嵌入操作,得到初始的 token 表示。 - 使用卷积下采样层进一步减少空间分辨率,形成多尺度特征图。 此阶段通常称为“阶段 1”,其中 transformer 块的数量为 \(H/4 \times W/4\),即每张图片被分解成若干 tokens[^2]。 #### 3. 移位窗口机制 为了提高效率和建模能力,Swin Transformer 引入了移位窗口策略。在标准窗口划分的基础上,每隔一层会调整窗口的位置以引入交叉窗口的信息交互。这种方法显著提升了性能,在 ImageNet-1K 图像分类任务上 top-1 准确率提高了 +1.1%,而在 COCO 目标检测任务中则分别提升 +2.8 box AP 和 +2.2 mask AP[^4]。 #### 4. PyTorch 实现代码 以下是基于 PyTorch 的 Swin Transformer 核心模块实现: ```python import torch from torch import nn class PatchEmbed(nn.Module): """Patch Embedding Layer""" def __init__(self, img_size=224, patch_size=4, in_chans=3, embed_dim=96): super().__init__() self.proj = nn.Conv2d(in_chans, embed_dim, kernel_size=patch_size, stride=patch_size) def forward(self, x): x = self.proj(x).flatten(2).transpose(1, 2) return x class Mlp(nn.Module): """Multilayer Perceptron""" def __init__(self, in_features, hidden_features=None, out_features=None): super().__init__() out_features = out_features or in_features hidden_features = hidden_features or in_features self.fc1 = nn.Linear(in_features, hidden_features) self.act = nn.GELU() self.fc2 = nn.Linear(hidden_features, out_features) def forward(self, x): x = self.fc1(x) x = self.act(x) x = self.fc2(x) return x class WindowAttention(nn.Module): """Window-based Multi-head Self Attention (MSA) module with relative position bias.""" def __init__(self, dim, window_size, num_heads): super().__init__() self.dim = dim self.window_size = window_size self.num_heads = num_heads head_dim = dim // num_heads self.scale = head_dim ** -0.5 self.qkv = nn.Linear(dim, dim * 3, bias=True) self.attn_drop = nn.Dropout(0.) self.proj = nn.Linear(dim, dim) def forward(self, x): B_, N, C = x.shape qkv = self.qkv(x).reshape(B_, N, 3, self.num_heads, C // self.num_heads).permute(2, 0, 3, 1, 4) q, k, v = qkv.unbind(0) attn = (q @ k.transpose(-2, -1)) * self.scale attn = attn.softmax(dim=-1) attn = self.attn_drop(attn) x = (attn @ v).transpose(1, 2).reshape(B_, N, C) x = self.proj(x) return x class SwinTransformerBlock(nn.Module): """Swin Transformer Block""" def __init__(self, dim, input_resolution, num_heads, window_size=7, shift_size=0): super().__init__() self.input_resolution = input_resolution self.window_size = window_size self.shift_size = shift_size if min(self.input_resolution) <= self.window_size: self.shift_size = 0 self.window_size = min(self.input_resolution) self.norm1 = nn.LayerNorm(dim) self.attn = WindowAttention( dim, window_size=(self.window_size, self.window_size), num_heads=num_heads ) self.norm2 = nn.LayerNorm(dim) mlp_hidden_dim = int(dim * 4) self.mlp = Mlp(in_features=dim, hidden_features=mlp_hidden_dim) def forward(self, x): H, W = self.input_resolution B, L, C = x.shape assert L == H * W, "input feature has wrong size" shortcut = x x = self.norm1(x) x = x.view(B, H, W, C) # cyclic shift if self.shift_size > 0: shifted_x = torch.roll(x, shifts=(-self.shift_size, -self.shift_size), dims=(1, 2)) else: shifted_x = x # partition windows x_windows = shifted_x.unfold(1, self.window_size, self.window_size)\ .unfold(2, self.window_size, self.window_size) x_windows = x_windows.contiguous().view(-1, self.window_size*self.window_size, C) # attention and projection attn_windows = self.attn(x_windows) attn_windows = attn_windows.view(-1, self.window_size, self.window_size, C) # reverse windows shifted_x = attn_windows.permute(0, 1, 2, 3).contiguous().view(B, H, W, C) # reverse cyclic shift if self.shift_size > 0: x = torch.roll(shifted_x, shifts=(self.shift_size, self.shift_size), dims=(1, 2)) else: x = shifted_x x = x.view(B, H*W, C) # FFN x = shortcut + x x = x + self.mlp(self.norm2(x)) return x class BasicLayer(nn.Module): """A basic Swin Transformer layer for one stage.""" def __init__(self, dim, depth, num_heads, window_size=7): super().__init__() self.blocks = nn.ModuleList([ SwinTransformerBlock( dim=dim, input_resolution=(window_size, window_size), num_heads=num_heads, window_size=window_size, shift_size=0 if i % 2 == 0 else window_size // 2 ) for i in range(depth)]) def forward(self, x): for blk in self.blocks: x = blk(x) return x class SwinTransformer(nn.Module): """Overall architecture of the Swin Transformer model.""" def __init__(self, img_size=224, patch_size=4, in_chans=3, num_classes=1000, embed_dim=96, depths=[2, 2, 6, 2], num_heads=[3, 6, 12, 24], window_size=7): super().__init__() self.patch_embed = PatchEmbed(img_size=img_size, patch_size=patch_size, in_chans=in_chans, embed_dim=embed_dim) dpr = [x.item() for x in torch.linspace(0, 0.1, sum(depths))] self.layers = nn.ModuleList() for i_layer in range(len(depths)): layer = BasicLayer( dim=int(embed_dim * 2 ** i_layer), depth=depths[i_layer], num_heads=num_heads[i_layer], window_size=window_size ) self.layers.append(layer) self.norm = nn.LayerNorm(int(embed_dim * 2 ** (len(depths)-1))) self.avgpool = nn.AdaptiveAvgPool1d(1) self.head = nn.Linear(int(embed_dim * 2 ** (len(depths)-1)), num_classes) if num_classes > 0 else nn.Identity() def forward(self, x): x = self.patch_embed(x) for layer in self.layers: x = layer(x) x = self.norm(x.mean(1)) x = self.head(x) return x ``` #### 5. 训练与验证流程 训练过程中可以使用常见的优化算法(如 Adam 或 SGD),并通过学习率调度器动态调整超参数。对于下游任务(如目标检测或语义分割),可以通过微调预训练权重来加速收敛。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值