Pytorch卷积模块

本文是关于PyTorch中卷积层和池化层的简单笔记,详细介绍了卷积层的参数,如输入和输出深度、卷积核大小、步长、填充等,并解释了卷积过程中的偏置和连接方式。同时,概述了池化层的参数,包括最大值池化和均值池化的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

做一个简单的笔记

1.卷积层
nn.Conv2d()就是PyTorch中的卷积模块,常用参数5个,是:

in_channels, out_ channels,kernel_ size, stride, padding

除此之外还有参数:

dilation, groups, bias。

下面来解释每个参数的含义:
inchannels对应的是输人数据体的深度;

out_channels表示输出数据体的深度;

kernel size 表示滤波器(卷积核)的大小,使用一个数字来表示高和宽相
同的卷积核,比如kernel_ size=3,;
不同的数字表示高和宽不同的卷积核,比如kernel size=(3, 2);

stride表示滑动的步长;

padding=0表示四周不进行零填充;
padding=1表示四周进行1个像素点的零填充;

bias 是一个布尔值,默认bias=True, 表示使用偏置;

groups表示输出数据体深度上和输人数据体深度上的联系,默认groups=1, 也就是所有的输出和输入都是相关联的,如果groups=2, 这表示输人的深度被分割成两份,输出的深度也被分割成两份,它们之间分别对应起来,所以要求输出和输人都必须要能被groups整除;

dilation表示卷积对于输人数据体的空间间隔,默认dilation=1

2.池化层

nn.MaxPool2d()表示网络中的最大值池化,参数有:

kernel_ size,stride,padding,dilation,return_ indices,ceil_ mode;
下面解释它们各自的含义:
kernel_ size, stride, padding, dilation之前卷积层已经介绍过了,是相同的含义;

return_ indices表示是否返回最大值所处的下标,默认
return_ indices=False;

ceil_ mode表示使用一些方格代替层结构,默认ceil_ mode=False,一般都不会设置这些参数。

nn.AvgPoo12d() 表示均值池化,参数和nn.MaxPoo12d()类似,但多一个参数count_ incl ude_ pad, 这个参数表示计算均值的时候是否包含零填充,默认count_ include_ pad=True。

一般使用较多的就是nn .MaxPool2d()和nn. AvgPool2d(),另外PyTorch还提供了一些别的池化层,如nn. LPPoo12d()、nn.AdaptiveMaxPool2d()等,这些运用较少,感兴趣的读者可以去查看官方文档。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值