深度学习之SuperViT

SuperViT是ViT的增强版,通过多尺度输入和Token-Keeping-rate机制提高计算效率和准确率。它使用不同分辨率的图像产生不同感受野的token,减少计算量,并根据注意力丢弃不重要token,提升模型性能。SuperViT在ImageNet上展示了优越的性能。

在这里插入图片描述

这篇文章是今年发表的一篇Transformer类文章。文章作者提出了ViT的增强版——SuperViT,其核心有2个:①多尺度输入;②Token-keeping-rate机制。作者通过一系列实验证明SuperViT可以在计算效率和正确率上实现比Swin-T更好的表现力!

参考文档:
源码
Transformer学习(四)—DeiT
各类Transformer都得稍逊一筹,LV-ViT:探索多个用于提升ViT性能的高效Trick

Abstract

首先需要指明的一点是,SuperViT比ViT强在哪?

  1. 计算效率。SuperViT通过使用较低分辨率的输入图像来将token控制在较小的范围内,从而降低相似度计算次数;此外,作者将一些含有重要信息较少的token直接丢弃,从而进一步降低每一种尺度下的注意力计算量。
  2. 准确率。SuperViT使用Token-Keeping-rate机制,也可以理解为丢弃不相关的token的方法。这种方式可以将注意力集中在信息更加重要的地方;此外,多尺度的输入产生了不同尺度的相关性与感受野,从而可以提取更加丰富的特征信息。

本文提出了一种新的优化ViT的模型——SuperViT,其具有以下特点:

  1. Vision Transformer具有较弱的归纳偏置、计算量和token数量成正比等缺陷。近年来,为了解决这些问题,陆续出现了DeiTLV-ViTT2T-ViTPVTSwin-T等用于改进ViT模型的方法。SuperViT也是出一这一目的,简单来说,SuperViT通过使用多尺度的输入形式以及Token-Keeping-rate机制来实现计算效率的提升与目标识别准确度的增加。
  2. 具体而言,多尺度输入(Multi-size)可以产生多种感受野的token,其中高分辨率图像具有较小的感受野但是其具有丰富的局部信息;低分辨率图像则具有较大的感受野,但是天然会损失一些细节信息。这种多种分辨率结合的方式可以提取到较大和较小范围内的特征信息。此外较小分辨率的输入在产生token的时候,必定会输出较少数量的token,这样一来便可以减少相似度计算量。Token-Keeping-rate机制根据注意力的大小来丢弃一些不重要的token,从而为下一次迭代中Transformer的计算量带来计算效率和准确性的提升;对于同一个输入尺度,作者设置了多个keeping rate来选择不同粗细的重要token
  3. SuperViT在ImageNet上证明了其具有较大幅度降低计算资源以及提升识别准确率的特点。

1 Introduction

  1. Vision Transformer的兴起始于2020年的ViT一文,ViT最大的缺陷在于其计算量偏大,对于Transformer来说,token越多计算复杂度越高,故ViT很难推广到实时场景下使用。
  2. 对于一幅图像来说,token序列长度和patch-size是成反比的,因此一个思路就是想办法增大patch-size,但是众所周知Transformer在较小尺寸的patch上可以实现较好的表现力,这是因为其可以提取更丰富的局部信息并且更加接近卷积的归纳偏置,这也可以减少训练的难度。现存的一些Vision-Transformer方法都只采用固定的patch-size,而使用多种尺寸的patch-size还未有人尝试过,显然多尺寸(multi-size)带来的最大好处在于通过将大尺寸和小尺寸结合,可以利用大patch实现较低计算量和较小patch实现性能的提升
  3. 图像中存在着一些冗余区域或者说含有较多无用信息的区域——背景等。近年来有许多模型就争对这一问题选择去丢弃这些区域,虽然提升了计算效率,但他们都带来了性能的降低。此外大多都采用固定的丢弃率从让模型变得不那么灵活,且固定的丢弃率并不能较好的实现表现力和计算效率的trade-off。

基于上述的现状,作者提出SuperViT模型,这里的“super”表示使用多种尺度patch-size的同时采用多种keeping-rate来较好的实现计算效率和性能的平衡。在具体实施过程中:

  1. SuperViT输入 m m m种不同尺寸的图像(通过上、下采样实现),然后使用固定的patch-size(源码是 16 × 16 16\times 16 16×16)去产生token,这样就相当于是不同的patch-size去分割同一张图像了。
  2. 而每一个尺度都配有 n n n种keep-rate,这样就一共有 m × n m\times n m×n种组合,每一种组合都去做inference,最后将所有梯度结合并更新网络,具体如何更新见3.3节的Training Objective。此外,每一种组合都会进行 N N N次的MSA计算,源码中采用间断式地丢弃token,比如 N = 12 N=12 N=12,则第3、6、9次保持 k e e p i n g _ r a t e = 1 keeping\_rate=1 keeping_rate=1,其余情况都进行丢弃。从最后结果来看,这种间断式的丢弃证明是可行的。
  3. SuperViT是首次在前向过程中拥有多种复杂度的尝试。

Note:

  1. SuperViT获取token的方式是使用patch-size为16的卷积核,步长stride为16的Conv2d来做的。

2 Related Work

3 Methodology

3.1 Overview

首先简略回顾下ViT,具体可参考我的另一篇深度学习之ViT
①设输入为 I ∈ R H × W × C \mathcal{I}\in\mathbb{R}^{H\times W\times C} IRH×W×C,使用 P × P P\times P P×P的size去分割图像,则获取 N = H W P 2 N=\frac{HW}{P^2} N=P2HW个块,每个token的shape为 P × P × C P\times P\times C P×P×C;每一个token经过投影层输出 D D D维的向量—— x i 0 ∈ R D x_i^0\in\mathbb{R}^{D} xi0RD,然后这些token进行整合就是注意力模块的输入了,我们一般记为 R B × N × P 2 C \mathbb{R}^{B\times N\times P^2C} RB×N×P2C( B B B为batchsize):
X 0 = [ x c l s 0 ; x 1 0 ; ⋯   ; x N 0 ] + E p o s . (1) X^0 = [x^0_{cls};x^0_{1};\cdots;x^0_N] + E_{pos}.\tag{1} X0=[xcls0;x10;;xN0]+Epos.(1)其中 x c l s x_{cls} xcls为类别token, E p o s E_{pos} Epos为位置编码向量。
②接下来要将输入送进Attention模块,在Vision-Transformer里,一般只用Encoder模块,其包括MHSA和FFN,2者都需要使用LN层和skip-connection。具体表达如下:
Y l = X l − 1 + M H S A ( X l − 1 ) . (2) Y^l = X^{l-1} + MHSA(X^{l-1}).\tag{2} Yl=Xl1+MHSA(Xl1).(2) X l = Y l + F F N ( Y l ) . (3) X^l = Y^l + FFN(Y^l).\tag{3} Xl=Yl+FFN(Yl).(3)
③由于是多头注意力,所以之后需要进行concat:
M H S A ( X l − 1 ) = C o n c a t [ A t t e n t i o n ( Q l , h K l , h ) V l , h ] h = 1 H W l . (4) MHSA(X^{l-1}) = Concat[Attention(Q^{l,h}K^{l,h})V^{l,h}]^H_{h=1} W^l.\tag{4} MHSA(Xl1)=Concat[Attention(Ql,hKl,h)Vl,h]h=1HWl.(4)在代码中,我们一般会增加一个head的维度,使得 Q 、 K 、 V Q、K、V QKV的shape变成 ( B , H , N , D / H ) (B, H, N, D/H) (B,H,N,D/H)
④Attention的计算过程如下,为了不让相似度值落入softmax的两边区域,则除以 D \sqrt{D} D 来避免相似度值太大。理论上余弦相似度需要 Q 、 K Q、K QK进行归一化,但是可能是为了简化计算此外当时Transformer对不进行归一化产生的效果还不错就流传下来都不进行归一化了:
A t t e n t i o n ( Q l , h , K l , h ) = [ a c l s l , h ; a 1 l , h ; ⋯   ; a N l , h ] = S o f t m a x ( Q l , h ( K l , h ) T D ) . (5) Attention(Q^{l,h}, K^{l,h}) = [a_{cls}^{l,h};a_1^{l,h};\cdots;a_N^{l,h}] = Softmax(\frac{Q^{l,h}(K^{l,h})^T}{\sqrt{D}}).\tag{5} Attention(Ql,h,Kl,h)=[aclsl,h;a1l,h;;aNl,h]=Softmax(D Ql,h(Kl,h)T).(5)
⑤由于SuperViT是基于目标识别的,因此最后第 L L L个Transformer会输出 x c l s L x_{cls}^L xclsL,并通过FC和softmax进行分类,最后输出类别分布概率 p p p
p = T ( X 0 ) = S o f t m a x ( F C ( x c l s L ) ) . (6) p = \mathcal{T}(X^0) = Softmax(FC(x_{cls}^{L})).\tag{6} p=T(X0)=Softmax(FC(xclsL)).(6)

3.2 Super Vision Transformer

在这里插入图片描述
上图就是SuperViT的pipeline,下面提几个点:

  1. 由于使用ImageNet,所以输入为 224 × 224 × 3 224\times 224\times 3 224×224×3的格式。
  2. 接下去会使用插值(F.interpolate)进行下采样从而获取multi-size的输入格式,不同输入格式通过并行的结构送进网络。
  3. 实际设计中,不同输入尺寸的patch-size是相同大小的,变动的是输入的图像,这样产生的效果就相当于不同尺寸的patch。
  4. m m m种尺寸, n n n种Keeping rate,则一共 m × n m\times n m×n种情况,每种情况都进行inference,等所有情况都完成后,再直接更新网络参数,这是利用了PyTorch的梯度累加机制。
  5. Keeping rate为1下产生的概率分布是和标签进行交叉熵计算的,其余小于1的keeping rate则和同一尺寸下的Keeping rate为1的结果进行KL散度计算,旨在控制好和Keeping rate为1的差距,从而不至于损失太多信息
  6. SuperViT有2个版本,一个是基于DeiT的,另一个是基于LV-ViT的,我自己在复现的时候就只使用了前者。
  7. Token-Keeping-rate是使用上一次迭代的注意力值或置信度进行排序,输出前 N ′ < N N'<N N<N个token—— s h a p e = ( B , N ′ , C ) shape=(B, N',C) shape=(B,N,C),拿着这个结果继续进行下一轮迭代。

3.2.1 Multi-size Patch Splitting

一般来说,大尺寸的patch-size可以减少计算量,而小尺寸的patch-size可以有较好的表现力(因为其归纳偏置和卷积更接近);此外固定patch-size的模型无法有效调节性能和计算效率之间的trade-off。因此SuperViT决定同时使用多种尺度的patch-size来有效调节准确度和计算效率的平衡。


设一共并行输入 G G G组具有不同尺寸patch-size的图像,patch组记为 { P g × P g } g = 1 G , P g > P g + 1 \{P_g\times P_g\}_{g=1}^G,P_g > P_{g+1} {Pg×Pg}g=1GPg>Pg+1,即第 g g g组的patch大小为 P g × P g P_g\times P_g Pg×Pg。因此对于 I ∈ R H × W × C \mathcal{I}\in\mathbb{R}^{H\times W\times C} IRH×W×C的输入,第 g g g组获取token的shape为 ( B , N , P g 2 C ) (B, N, P_g^2 C) (B,N,Pg2C),其中 N = H W P g × P g N=\frac{HW}{P_g\times P_g} N=Pg×PgHW
这样每一组获取的token大小都是不一样的,接下去就要统一不同组之间的token的shape。这是为了更好的设计和适应一个网络模型。作者指出使用计算消耗较低的双线性插值来做上下采样,从而统一不同尺寸的patch。之后将每个组内的所有patch( 1 → N g 1\to N_g 1Ng)进行整合,数学表达式如下:
X g 0 = [ x g , c l s 0 ; x g , 1 0 ; ⋯   ; x g , N g 0 ] + E g , p o s . (7) X^0_g = [x^0_{g,cls};x^0_{g,1};\cdots;x^0_{g,N_g}] + E_{g,pos}.\tag{7} Xg0=[xg,cls0;xg,10;;xg,Ng0]+Eg,pos.(7)接下去将 G G G组的并行输入 { X g 0 } g = 1 G \{X_g^0\}_{g=1}^{G} {Xg0}g=1G共同输入一系列串联的ViT中,即MHSA-FFN。最后接全连接层和Softmax层输出 G G G个概率分布—— { p g } g = 1 G \{p_g\}_{g=1}^G {pg}g=1G。数学表达式如下:
p g = T ( X g 0 ) = S o f t m a x ( F C ( x g , c l s L ) ) . (8) p_g = \mathcal{T}(X^0_g) = Softmax(FC(x^L_{g,cls})).\tag{8} pg=T(Xg0)=Softmax(FC(xg,clsL)).(8)

3.2.2 Multi-Token Keeping Rate

为了进一步节约计算量以及舍弃图片中信息冗余或无用的区域,作者提出了多种keeping-rate下的token丢弃机制。之前也有过类似的模型,但是它们大多使用固定keeping-rate的方式,这样带来的缺陷就是由于不同图片冗余程度是不一样的,因此固定的丢弃反倒会损害表现力。


假设每组下有 M M M种keeping-rate—— { η m } m = 1 M , η m > η m + 1 \{\eta_m\}_{m=1}^M,\eta_m > \eta_{m+1} {ηm}m=1M,ηm>ηm+1,且满足 0 < η m < 1 , f o r     m > 1 0<\eta_m < 1, for\,\,\, m >1 0<ηm<1,form>1,这就意味着 t o p − ( η m ⋅ N ) top-(\eta_m\cdot N) top(ηmN)个token将会被保留下来,这个排序是按照注意力值或者置信度来排列的。

因此第 l l l个ViT的输入可表示为:
X g l = [ x g , c l s l ; x g , 1 l ; ⋯   ; x g , N g l ] X_g^l = [x_{g,cls}^l; x_{g,1}^l;\cdots;x_{g,N_g}^l] Xgl=[xg,clsl;xg,1l;;xg,Ngl]接下去常规操作,将 X g l X_{g}^l Xgl输入MHSA-FFN中,其中 l ∈ [ 1 , ⋯   , L ] l\in[1, \cdots, L] l[1,,L]

Note:

  1. 就目前SuperViT的源码版本来看,其基于注意力的drop机制是有问题的——每个token保留下来的token都是一样的,都是基于第一个token丢弃的结果,这显然是不对的,每个token应该丢弃的情况肯定是不一样的。

最后输入到全连接层和Softmax层获取概率分布就完事了:
p g , m = T ( X g 0 ∣ η m ) = S o f t m a x ( F C ( x g , c l s L ∣ η m ) ) . (9) p_{g,m} = \mathcal{T}(X_g^0|\eta_m) = Softmax(FC(x^L_{g,cls}|\eta_m)).\tag{9} pg,m=T(Xg0ηm)=Softmax(FC(xg,clsLηm)).(9)

3.3 Training Objective

理论上目前已有 M × G M\times G M×G种复杂度,但是如果全上的话会带来较大的训练压力,故作者只采用 2 × 2 2\times 2 2×2种复杂度,分别是: ( P G × P G , η 1 ) 、 ( P G × P G , η m 1 ) 、 ( P g 1 × P g 1 , η 1 ) 、 ( P g 1 × P g 1 , η m 2 ) (P_G\times P_G, \eta_1)、(P_G\times P_G, \eta_{m_1})、(P_{g_1}\times P_{g_1}, \eta_1)、(P_{g_1}\times P_{g_1}, \eta_{m_2}) (PG×PG,η1)(PG×PG,ηm1)(Pg1×Pg1,η1)(Pg1×Pg1,ηm2)
Note:

  1. η m 1 、 η m 2 \eta_{m_1}、\eta_{m_2} ηm1ηm2是从 { η m } m = 2 M \{\eta_m\}_{m=2}^M {ηm}m=2M中随机采样而来的。
  2. η 1 = 1 , P G = 224 \eta_1=1, P_G=224 η1=1,PG=224

SuperViT的整体训练损失函数如下:
L = ∑ g = 1 G C E ( p g , 1 , y ) + ∑ g = 1 G ∑ m = 2 M K L ( p g , m , p g , 1 ) . (10) \mathcal{L} = \sum^G_{g=1} CE(p_{g,1},y) + \sum^G_{g=1}\sum^M_{m=2} KL(p_{g,m}, p_{g, 1}).\tag{10} L=g=1GCE(pg,1,y)+g=1Gm=2MKL(pg,m,pg,1).(10)Note:

  1. 只有 p g , 1 p_{g,1} pg,1和标签直接做CE交叉熵计算,这是因为 p g , 1 p_{g,1} pg,1是无丢弃的,它可以最大程度拟合标签;而含有token丢弃的 p g , m p_{g,m} pg,m则和 p g , 1 p_{g, 1} pg,1做KL散度来最小化两者的差距,这么做是为了让 p g , 1 p_{g,1} pg,1去引导含有token丢弃的学习。

4 Experiments

实验部分就不详细介绍了,SuperViT的数据集是ImageNet。我自己在复现的时候,使用miniImagenet,也是 224 × 224 224\times 224 224×224,只不过不是1000分类,而是100类。

下面贴一个SuperViT在计算效率和准确率上优于目前的一些Vision Transformer方法的实验结果:
在这里插入图片描述

5 Limitation and Future

SuperViT的Token-Keeping-rate机制虽然聚焦于重要区域,但是其会丢失一些次要信息;此外多尺度的方式会降低分辨率,这也会丢失一些信息。那么对于一些对于细节恢复较高的任务,这种方式用的时候要谨慎选择。

6 Conclusion

  1. 文章推出了一种比现有SOTA计算效率更高且有更佳的识别准确度——SuperViT
  2. SuperViT提供了多种复杂度,可以对计算效率和准确性进行调节从而达到较好的trade-off
  3. SuperViT的核心是3个:①多尺度的输入patch-size;②多种token-keeping-rate;③由CE和KL散度组成的损失函数
  4. 多尺度的patch-size可以平衡较大尺度带来的低计算消耗问题、高感受野以及较低尺度带来的性能提升问题;Keeping-rate可以降低计算消耗以及专注于重要信息区域;此外多种keeping-rate可以应对不同图片所带来重要性程度不同的问题
  5. SuperViT适合于目标识别这种探究图片结构信息的任务,但是对于需要细节处理的任务来说值得考究
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值