task05--卷积神经网络

本文深入探讨了卷积神经网络的原理,包括卷积层、池化层的运作机制,解释了填充、步幅、输入通道和输出通道的概念。通过实例展示了如何使用PyTorch实现卷积和池化层。
部署运行你感兴趣的模型镜像

卷积神经网络

卷积神经网络中,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。

(一)卷积的运算

卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。
Image Name
图1 二维互相关运算

(二)、特征图与感受野

二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature map)。影响元素xxx的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做xxx的感受野(receptive field)。
以图1为例,输入中阴影部分的四个元素是输出中阴影部分元素的感受野。我们可以通过更深的卷积神经网络使特征图中单个元素的感受野变得更加广阔,从而捕捉输入上更大尺寸的特征。

(三)、填充

填充(padding)是指在输入高和宽的两侧填充元素(通常是0元素),图2里我们在原输入高和宽的两侧分别添加了值为0的元素。

Image Name

图2 在输入的高和宽两侧分别填充了0元素的二维互相关计算

如果原输入的高和宽是nhn_hnhnwn_wnw,卷积核的高和宽是khk_hkhkwk_wkw,在高的两侧一共填充php_hph行,在宽的两侧一共填充pwp_wpw列,则输出形状为:

(nh+ph−kh+1)×(nw+pw−kw+1) (n_h+p_h-k_h+1)\times(n_w+p_w-k_w+1) (nh+phkh+1)×(nw+pwkw+1)

我们在卷积神经网络中使用奇数高宽的核,比如3×33 \times 33×35×55 \times 55×5的卷积核,对于高度(或宽度)为大小为2k+12 k + 12k+1的核,令步幅为1,在高(或宽)两侧选择大小为kkk的填充,便可保持输入与输出尺寸相同。

(四)、步幅

在互相关运算中,卷积核在输入数组上滑动,每次滑动的行数与列数即是步幅(stride)。此前我们使用的步幅都是1,图3展示了在高上步幅为3、在宽上步幅为2的二维互相关运算。

Image Name

图3 高和宽上步幅分别为3和2的二维互相关运算

一般来说,当高上步幅为shs_hsh,宽上步幅为sws_wsw时,输出形状为:

⌊(nh+ph−kh+sh)/sh⌋×⌊(nw+pw−kw+sw)/sw⌋ \lfloor(n_h+p_h-k_h+s_h)/s_h\rfloor \times \lfloor(n_w+p_w-k_w+s_w)/s_w\rfloor (nh+phkh+sh)/sh×(nw+pwkw+sw)/sw

ph=pw=pp_h = p_w = pph=pw=p时,我们称填充为ppp;当sh=sw=ss_h = s_w = ssh=sw=s时,我们称步幅为sss

(五)多输入通道和多输出通道

之前的输入和输出都是二维数组,但真实数据的维度经常更高。例如,彩色图像在高和宽2个维度外还有RGB(红、绿、蓝)3个颜色通道。假设彩色图像的高和宽分别是hhhwww(像素),那么它可以表示为一个3×h×w3 \times h \times w3×h×w的多维数组,我们将大小为3的这一维称为通道(channel)维。
在这里插入图片描述
图4 多输入卷积运算
多输出通道

卷积层的输出也可以包含多个通道,设卷积核输入通道数和输出通道数分别为cic_icicoc_oco,高和宽分别为khk_hkhkwk_wkw。如果希望得到含多个通道的输出,我们可以为每个输出通道分别创建形状为ci×kh×kwc_i\times k_h\times k_wci×kh×kw的核数组,将它们在输出通道维上连结,卷积核的形状即co×ci×kh×kwc_o\times c_i\times k_h\times k_wco×ci×kh×kw

对于输出通道的卷积核,我们提供这样一种理解,一个ci×kh×kwc_i \times k_h \times k_wci×kh×kw的核数组可以提取某种局部特征,但是输入可能具有相当丰富的特征,我们需要有多个这样的ci×kh×kwc_i \times k_h \times k_wci×kh×kw的核数组,不同的核数组提取的是不同的特征。

即在图4中有多个立方体(3维的核),提取不同的特征

(六)卷积层的简洁实现

我们使用Pytorch中的nn.Conv2d类来实现二维卷积层,主要关注以下几个构造函数参数:

  • in_channels (python:int) – Number of channels in the input imag
  • out_channels (python:int) – Number of channels produced by the convolution
  • kernel_size (python:int or tuple) – Size of the convolving kernel , (nn) or (nm)
  • stride (python:int or tuple, optional) – Stride of the convolution. Default: 1
  • padding (python:int or tuple, optional) – Zero-padding added to both sides of the input. Default: 0 若为int,则padding为(nn),tuple为(nm),参数为可选的,默认为0即不填充
  • bias (bool, optional) – If True, adds a learnable bias to the output. Default: True

forward函数的参数为一个四维张量,形状为(N,Cin,Hin,Win)(N, C_{in}, H_{in}, W_{in})(N,Cin,Hin,Win),返回值也是一个四维张量,形状为(N,Cout,Hout,Wout)(N, C_{out}, H_{out}, W_{out})(N,Cout,Hout,Wout),其中NNN是批量大小,C,H,WC, H, WC,H,W分别表示通道数、高度、宽度。

代码讲解

X = torch.rand(4, 2, 3, 5)  #4个样本,每个样本2个通道,每个通道的大小为3*5(图片尺寸)
print(X.shape)
#print(X)
conv2d = nn.Conv2d(in_channels=2,out_channels=3,kernel_size=(3, 5), stride=1, padding=(1, 2))
#padding=(1,2)  意思是在输入的上方和下方各添加一行0,在左边和右边各添加两列0
Y = conv2d(X)
print('Y.shape: ', Y.shape)
print('weight.shape: ', conv2d.weight.shape)
print('bias.shape: ', conv2d.bias.shape)
#输出
torch.Size([4, 2, 3, 5])
Y.shape:  torch.Size([4, 3, 3, 5])
weight.shape:  torch.Size([3, 2, 3, 5])
bias.shape:  torch.Size([3])
(七)池化层的简洁实现

我们使用Pytorch中的nn.MaxPool2d实现最大池化层,关注以下构造函数参数:

  • kernel_size – the size of the window to take a max over
  • stride – the stride of the window. Default value is kernel_size
  • padding – implicit zero padding to be added on both sides

forward函数的参数为一个四维张量,形状为(N,C,Hin,Win)(N, C, H_{in}, W_{in})(N,C,Hin,Win),返回值也是一个四维张量,形状为(N,C,Hout,Wout)(N, C, H_{out}, W_{out})(N,C,Hout,Wout),其中NNN是批量大小,C,H,WC, H, WC,H,W分别表示通道数、高度、宽度。

代码

X = torch.arange(32, dtype=torch.float32).view(1, 2, 4, 4)  #一个样本,2个通道,4*4大小
pool2d = nn.MaxPool2d(kernel_size=3, padding=1, stride=(2, 1)) #在高这个维度上移动2,宽移动1步
Y = pool2d(X)
print(X)
print(Y)
tensor([[[[ 0.,  1.,  2.,  3.],
          [ 4.,  5.,  6.,  7.],
          [ 8.,  9., 10., 11.],
          [12., 13., 14., 15.]],

         [[16., 17., 18., 19.],
          [20., 21., 22., 23.],
          [24., 25., 26., 27.],
          [28., 29., 30., 31.]]]])
tensor([[[[ 5.,  6.,  7.,  7.],
          [13., 14., 15., 15.]],

         [[21., 22., 23., 23.],
          [29., 30., 31., 31.]]]])

平均池化层使用的是nn.AvgPool2d,使用方法与nn.MaxPool2d相同。

  • 池化层有参与模型的正向计算,同样也会参与反向传播

  • 池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算

  • 池化层通常会减小特征图的高和宽

  • 池化层的输入和输出具有相同的通道数

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值