空间金字塔池化(Spatial Pyramid Pooling, SPP)

本文深入探讨了空间金字塔池化(SPP)在SPPnet和Fast-RCNN中的应用,解释了其如何使CNN能够接收任意尺寸的输入图像,提高了目标检测的效率。通过详细分析SPP的工作原理和代码实现,证明了它能生成固定长度的特征向量,适用于不同尺寸的图片。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

空间金字塔池化(Spatial Pyramid Pooling, SPP)

在SPPnet和Fast-RCNN中都用到了空间金字塔池化(Spatial Pyramid Pooling, SPP)来提高object detection的效率。SPP本质的目的是为了使得CNN可以接受任意尺寸的输入图片,从而避免了图像预处理中要将图片resize到统一尺寸这个限制。

SPPnet论文中给出了如下的图示:
在这里插入图片描述

给定一张任意尺寸的输入图片,首先经过一个网络,得到某卷积层的输出(即图中Conv5的输出);之后经过三个不同的池化层,分别得到16×25616\times 25616×256维、4×2564\times 2564×256维和1×2561\times 2561×256维的向量,将这些向量拼接起来,即得到固定长度的特征向量(fixed-length representation,这里长度为5376)。无论输入的图片是任何尺寸的,我们都可以得到长度为5376的特征向量。

卷积层实际上并不受限于输入图像的尺寸,无论给定什么尺寸的图,卷积都是可以进行的。然而后面的全连接层就不行了,必须接受固定尺寸的输入。所以通过上述的金字塔池化,就可以解决全连接层的输入问题。从而使得网络可以接受任意尺寸的输入图片。

单看论文还是不好理解,到底是如何操作的。我们从代码的角度来看下是如何实现的,最后再证明下这样确实是可行的。

import torch.nn as nn
import torch

def spatial_pyramid_pool(previous_conv, num_sample, previous_conv_size, out_pool_size):
    '''
    previous_conv: a tensor vector of previous convolution layer
    num_sample: an int number of image in the batch
    previous_conv_size: an int vector [height, width] of the matrix features size of previous convolution layer
    out_pool_size: a int vector of expected output size of max pooling layer
    
    returns: a tensor vector with shape [1 x n] is the concentration of multi-level pooling
    '''    
    print(previous_conv.size())
    for i in range(len(out_pool_size)):
        h_wid = int(math.ceil(previous_conv_size[0] / out_pool_size[i]))
        w_wid = int(math.ceil(previous_conv_size[1] / out_pool_size[i]))
        h_pad = int((h_wid*out_pool_size[i] - previous_conv_size[0] + 1)/2)
        w_pad = int((w_wid*out_pool_size[i] - previous_conv_size[1] + 1)/2)
        print (h_wid, w_wid,h_pad,w_pad)
        maxpool = nn.MaxPool2d((h_wid, w_wid), stride=(h_wid, w_wid), padding=(h_pad, w_pad))
        x = maxpool(previous_conv)
        if(i == 0):
            spp = x.view(num_sample,-1)
        else:
            spp = torch.cat((spp,x.view(num_sample,-1)), 1)
    return spp

假如这里输入的feature map即previous_conv的channel为512,out_pool_size=[4,2,1]。则经过这三个池化层,我们分别得到4×4×5124\times 4\times 5124×4×5122×2×5122\times 2\times 5122×2×5121×1×5121\times 1\times 5121×1×512的feature map。展开拼接后得到10752维度的特征向量。

根据上述代码,我们可以得到计算的公式:

  • 设输入尺寸为:Win×Hin×CinW_{in}\times H_{in}\times C_{in}Win×Hin×Cin
  • 设期望的池化层输出尺寸为:nnn。这里池化不改变channel,所以Cout=CinC_{out}=C_{in}Cout=Cin。即输出尺寸为n×n×Coutn\times n\times C_{out}n×n×Cout

池化层的kernel_size:

Fw=⌈Winn⌉Fh=⌈Hinn⌉ F_w=\left \lceil \frac{W_{in}}{n} \right \rceil \\ F_h=\left \lceil \frac{H_{in}}{n} \right \rceil Fw=nWinFh=nHin

池化层的stride:

Sw=FwSh=Fh S_w=F_w \\ S_h=F_h Sw=FwSh=Fh

池化层的padding:

Pw=⌊Fw×n−Win+12⌋Ph=⌊Fh×n−Hin+12⌋ P_w=\left \lfloor \frac{F_w\times n-W_{in}+1}{2} \right \rfloor \\ P_h=\left \lfloor \frac{F_h\times n-H_{in}+1}{2} \right \rfloor Pw=2Fw×nWin+1Ph=2Fh×nHin+1

根据卷积层池化层输出尺寸公式:

Wout=Win−Fw+2×PwSw+1Hout=Hin−Fh+2×PhSh+1 W_{out}=\frac{W_{in}-F_w+2\times P_w}{S_w}+1 \\ H_{out}=\frac{H_{in}-F_h+2\times P_h}{S_h}+1 Wout=SwWinFw+2×Pw+1Hout=ShHinFh+2×Ph+1

我们可以看到给定任何尺寸的输入和nnn,我们期望池化层输出的尺寸是:n×n×Coutn\times n\times C_{out}n×n×Cout。给nnn以不同的值,我们就可以得到不同的输出,展开后拼接就是一个固定的特征向量。所以我们需要证明如下的等式是否成立:

Wout=nHout=n W_{out}=n \\ H_{out}=n Wout=nHout=n

我们以WoutW_{out}Wout为例来看看证明过程,Hout=nH_{out}=nHout=n的证明是一样的。将FwF_wFwPwP_wPwSwS_wSw代入卷积层池化层输出尺寸公式,可得:

Wout=Win−⌈Winn⌉+2×⌊⌈Winn⌉×n−Win+12⌋⌈Winn⌉+1 W_{out}=\frac{W_{in}-\left \lceil \frac{W_{in}}{n} \right \rceil+2\times \left \lfloor \frac{\left \lceil \frac{W_{in}}{n} \right \rceil\times n-W_{in}+1}{2} \right \rfloor}{\left \lceil \frac{W_{in}}{n} \right \rceil}+1 Wout=nWinWinnWin+2×2nWin×nWin+1+1

这里取上整和下整可以分情况讨论,这里我们只看一种特殊的情况,即恰好可整除。则可得:

Wout=Win−⌈Winn⌉+2×⌊⌈Winn⌉×n−Win+12⌋⌈Winn⌉+1=Win−Winn+Winn×n−Win+1Winn+1=n−1+1=n W_{out}=\frac{W_{in}-\left \lceil \frac{W_{in}}{n} \right \rceil+2\times \left \lfloor \frac{\left \lceil \frac{W_{in}}{n} \right \rceil\times n-W_{in}+1}{2} \right \rfloor}{\left \lceil \frac{W_{in}}{n} \right \rceil}+1 \\ =\frac{W_{in}-\frac{W_{in}}{n}+\frac{W_{in}}{n}\times n-W_{in}+1}{\frac{W_{in}}{n}}+1 \\ =n-1+1 \\ =n Wout=nWinWinnWin+2×2nWin×nWin+1+1=nWinWinnWin+nWin×nWin+1+1=n1+1=n

同理,我们也可以证明其它的情况。由此,对于不同的输入尺寸,channel是一致的,而nnn值也是一致的,因此输出尺寸是一致的。因此可以适应于不同尺寸的图片输入。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值