论文阅读《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》

SwinTransformer是微软提出的一种新型Transformer架构,用于解决视觉任务中的尺度问题和高分辨率需求。它引入了层次化的窗口机制,通过shiftedwindow操作实现了线性时间复杂度,适用于多尺度特征提取。在分类、检测和分割任务中表现出色,展现出高效且准确的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文链接:https://arxiv.org/abs/2103.14030

代码地址: https://github.com/microsoft/Swin-Transformer

开源15天,star超3k的作品。作者提出了一个基于transformer的backbone,可用于多种视觉任务。和以往ViT,DETR等结构不同的是,Swin Transformer通过shifted windows操作,实现了CNN里面的hierarchical的结构。这类hierarchical的结构更适用于不同的scale,同时其计算复杂性仅与image size线性相关。实验证明,以Swin Transformer为backbone的模型,在分类、检测和分割等多个任务上实现了霸榜。

Motivation

将NLP领域的Transformer迁移到CV的task上,需要考虑这两个模态之间的不同:(1)scale问题:像object detection,目标的尺度不一样,而现有的Transformer里面的token大多对应一个固定的尺度,因此并不适合这类task;(2)图像任务需要更高的resolution:以semantic segmentation为例,对现存的Transformer来说,想要得到更高分辨率的结果,意味着要承担image size的平方的时间复杂度,代价显然非常高。

在这里插入图片描述

基于以上两点考量,作者提出了Swin Transformer以解决上述问题:(1)首先该backbone的特征图构建是hierarchical的,因此可以适应多尺度。通过不断的融合临近的patch,即可得到hierarchical的特征图,类似于ResNet,后面可以接FPN或U-Net进行多尺度密集预测;(2)然后他的计算复杂性是和image size线性相关的,相比于现存方法的平方相关优化了很多。用到了non-overlapping window,即一个window包含若干个patch,然后所有的self-attention均在window内部locally计算。由于window内patch数量是固定的,所以时间复杂度与image size成线性关系。

由于上述的window是non-overlapping的,如果只对每个window独立地做self-attention,并不能有效的融合周围的特征,不适合提取到hierarchical的feature map(对比CNN里的kernal在整个feature map上进行滑动)。因此Swin Transformer中的一个核心结构shifted window,用来划分相邻self-attention层的window。

Architecture

在这里插入图片描述
Swin Transformer总体结构如上。输入是RGB图像,首先经过一个Patch Partition模块,这里以 4 ∗ 4 4*4 44大小为一个patch,所以划分后维度变成 H 4 ∗ W 4 ∗ 48 \frac{H}{4}*\frac{W}{4}*48 4H4W48。然后经过一个Linear Embedding层,可以将特征嵌入到任意维度,这里记作 C C C。随后经过一个核心的Swin Transformer Block模块,token数不变。以上属于Stage1。

为了产生一个hierarchical的特征表示,token的数量随着网络的加深应该不断减少,因此这里采用Patch Merging模块,来对 2 ∗ 2 2*2 22区域内的patch进行融合,这样每一个新patch特征维度变成 4 C 4C 4C。为了减少计算量,融合后紧跟一个降维操作,将维度降到 2 C 2C 2C。随后经过Swin Transformer Block,维度保持不变。以上为Stage2。

后续Stage3-5和之前是一样的,不断融合相邻的patch,直到Stage5输出的特征图大小为 H 32 ∗ W 32 ∗ 8 C \frac{H}{32}*\frac{W}{32}*8C 32H32W8C。这五个Stage联合起来产生了hierarchical的特征表示。和VGG,ResNet这些网络是一样的,都产生了多层级的feature map。因此Swin Transformer这个backbone相比于其他的视觉Transformer,更适合用在CV的task上面。

其中的核心模块Swin Transformer Block如Figure3(b)所示,关键之处使用W-MSA和SW-MSA取代了传统Transformer中的MSA(Multi-head self attention module),其他基本不变。MLP,LayerNorm和shortcut结构都用在了这个Block中,不过不是重点。重点是SW-MSA用到了shifted window操作,使得hierarchical feature和线性时间复杂度成为可能。

Shifted Window based Self-Attention

在这里插入图片描述
关于window与patch的关系,上图表示的很清楚。首先分析一下以前的global self-attention,和本文采用在每个window内部做self-attention的时间复杂度。两种时间复杂度如下式:
在这里插入图片描述

两个公式的由来是这样的:
(1) Q = x ∗ W Q Q=x*W^{Q} Q=xWQ,需要 h w C 2 hwC^{2} hwC2。K和V的复杂度与Q一样。随后是 Q K T QK^{T} QKT需要 ( h w ) 2 C (hw)^{2}C (hw)2C,其结果与V相乘同样需要 ( h w ) 2 C (hw)^{2}C (hw)2C。得到结果 Z Z Z以后乘 W Z W^{Z} WZ需要 h w C 2 hwC^{2} hwC2。因此总计 4 h w C 2 + 2 ( h w ) 2 C 4hwC^{2}+2(hw)^{2}C 4hwC2+2(hw)2C。这个结果显然是和image size平方相关的。
(2)如采用window内部self attention,KQVZ的复杂度都不变。 Q K T QK^{T} QKT需要计算 h M ∗ w M \frac{h}{M}*\frac{w}{M} MhMw个window,每个window的复杂度为 ( M 2 ) 2 C (M^{2})^{2}C (M2)2C,因此总计 M 2 h w C M^{2}hwC M2hwC。后续结果与V相乘的计算量也为 M 2 h w C M^{2}hwC M2hwC。所以总体的时间复杂度为 4 h w C 2 + 2 M 2 h w C 4hwC^{2}+2M^{2}hwC 4hwC2+2M2hwC。由于M是固定的,因此该结果与image size线性相关。

通过上述分析,Swin Trabsformer已经解决了现存方法时间复杂度高的缺点。但如果采用只计算window内部的self-attention,会导致不同window之间缺少connection,换句话说,global信息将会损失。为了解决这个问题,作者提出了Shifted window,用以划分相邻layer特征图上的window。

一种很直观的方法就是按照上述Figure2右侧图的划分方式,这样在之前层的那些non-overlapping的window就可以建立联系。但是Figure2的Shifted window方式也有弊端,window数目从 2 ∗ 2 2*2 22变成了 3 ∗ 3 3*3 33,计算复杂度直接上涨2.25倍,并不是特别乐观。因此作者提出了一种shifted方式,如下图:
在这里插入图片描述
如上图,依然按照Figure2的方式划分网格,但是采用了cyclic shift(左二):将浅色区域的A B C平移到深色区域的对应位置。在做了这个shift操作以后,在原来的feature map上一些不相邻的window会变成相邻的,且位于同一个新的window中,因此需要采用一个mask机制,来抑制这两个本不相邻的部分在一个window中做self attention。这一部分最好结合代码,可参考该文章

最后是在做self attention的时候,加上一个position bias,如下:
在这里插入图片描述

Experiment

分类任务惜败于EfficientNet,可能是因为多尺度和分类关系不是那么密切?
在这里插入图片描述
检测精度还是很高的。
在这里插入图片描述
语义分割最大的网络精度也很高。
在这里插入图片描述

总结

作者提出了一个Transformer backbone,不仅可以产生hierarchical的特征表示,还可以使时间复杂度降至和image size线性相关。核心部分就是window的引入降低了复杂度,patch的融合以及shifted window的引入可以提取多尺度的feature。Swin Transformer在分类、检测、分割等多个任务中达到了很高的精度,同时拥有不俗的速度。虽然不认同是对CNN的降维打击,但这种融合了CNN层级思想的Transfomer架构还是非常值得学习和follow的。

### Swin Transformer 论文精读:Hierarchical Vision Transformer Using Shifted Windows Swin Transformer 是一种基于视觉的分层 Transformer 模型,其核心创新在于通过 **Shifted Window-based Self-Attention** 实现了线性计算复杂度,同时能够生成多尺度特征表示。这种方法在图像分类、目标检测和语义分割等任务中取得了显著的性能提升 [^2]。 #### 核心架构概述 Swin Transformer 的整体结构分为多个阶段(Stage),每个阶段包含多个 Swin Transformer Block。这些块使用 **窗口化自注意力机制** 和 **移位窗口策略** 来实现高效计算并捕捉长距离依赖关系。 - **分层特征提取** 类似于传统卷积神经网络(如 ResNet),Swin Transformer 采用分层设计来逐步降低空间分辨率并增加通道维度。这种设计允许模型从局部到全局地构建特征表示。 - **窗口划分与移位窗口机制** 在每个 Swin Transformer Block 中,输入特征图被划分为不重叠的窗口,并在这些窗口内执行自注意力计算。为了增强跨窗口的信息交互,在下一个 Block 中对窗口进行移位操作(Shifted Windows)。这种方式既减少了计算量,又保持了模型对全局信息的感知能力 [^1]。 ```python # 窗口划分伪代码示例 def window_partition(x, window_size): B, H, W, C = x.shape # 将图像划分为多个窗口 x = tf.reshape(x, shape=[B, H // window_size, window_size, W // window_size, window_size, C]) windows = tf.transpose(x, perm=[0, 1, 3, 2, 4, 5]) return tf.reshape(windows, shape=[-1, window_size, window_size, C]) # 移位窗口伪代码 def shifted_window_attention(x, window_size, shift_size): B, H, W, C = x.shape # 对特征图进行滚动操作以实现窗口移位 x = tf.roll(x, shift=(-shift_size, -shift_size), axis=(1, 2)) return window_partition(x, window_size) ``` #### 自注意力机制优化 传统的 Vision Transformer(ViT)在整个图像上应用自注意力机制,导致计算复杂度为 $O(n^2)$,其中 $n$ 是图像块的数量。而 Swin Transformer 通过将注意力限制在局部窗口内,将复杂度降低到 $O(n)$,使其适用于高分辨率图像处理 [^4]。 此外,移位窗口机制确保了相邻窗口之间的信息流动,从而避免了局部注意力带来的信息隔离问题。这种设计使得 Swin Transformer 能够在保持计算效率的同时实现全局建模能力。 #### 实验结果与性能优势 Swin Transformer 在多个视觉任务中表现出色: - **ImageNet 分类任务**:Swin-Tiny、Swin-Small、Swin-Base 和 Swin-Large 四种变体均在 ImageNet-1K 上实现了优于其他 Transformer 主干网络的 Top-1 准确率。 - **COCO 目标检测**:在 COCO 数据集上,Swin Transformer 在 Faster R-CNN 框架下达到了 SOTA 性能,mAP 超过之前的最佳方法。 - **ADE20K 语义分割**:在 ADE20K 数据集上,Swin Transformer 作为编码器也取得了领先的 mIoU 指标 [^2]。 #### 消融实验分析 论文还进行了详细的消融研究,验证了以下几个关键组件的有效性: - **窗口大小的影响**:较大的窗口有助于捕捉更广泛的上下文,但会增加计算开销。 - **移位窗口的重要性**:实验证明,移位机制可以显著提升模型性能,尤其是在长距离依赖任务中。 - **不同层级的设计**:通过对比不同层级深度和通道配置,论文展示了如何平衡精度与效率 [^3]。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值