本文以下面这个图为例,来实战演示神经网络中的卷积层、池化层、线性层的具体用法,使得由原来输入3@32x32(3渠道,宽32,高32)的数据,最终转化为了10的线性数据。并且采用两种方式去写,一种没有用Sequential,一种用了Sequential。发现,当神经网络需要很多层的变换的时候,往往使用Sequential会会更加的方便。

1.卷积层
由3@32X32(3渠道,宽32,高32)的数据转换成32@32X32(32渠道,宽32,高32)的代码实现是怎么样的呢?
代码如下:
class net_work(nn.Module):
def __init__(self):
super(net_work, self).__init__()
self.conv1 = Conv2d(3, 32, 5, padding=2)
此段代码的意思是,卷积变换,输入3渠道,输出32渠道,卷积核大小是5X5的,padding是2,好的,那问题来了,为什么padding的大小是2呢,当然是我们通过如下的数学公式计算出来的,我们打开pytorch的官网,找到长度变换公式(如下),由此公式可计算出来,输出的宽度和高度是如何计算得来的,当我们根据上面那个图得知通过卷积层由32X32的变成了32X32的,dilation(空洞卷积)为默认值1,卷积核为5,stride=1,由此得知,padding的大小为2.这样才能经过一层卷积输出32@32X32。

本文通过一个实例演示了神经网络中卷积层、池化层和线性层的使用,将3@32x32的输入转化为10的线性输出。解释了如何计算padding大小,并对比了使用和不使用Sequential的代码实现,强调在层数较多时,Sequential的便利性。
最低0.47元/天 解锁文章
13万+

被折叠的 条评论
为什么被折叠?



