Pytorch CNN的各种参数

本文介绍了一个简易的卷积神经网络模型实现过程,包括卷积层、池化层及全连接层的设计,并详细解释了各层参数的意义及forward函数中view操作的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

class Model(torch.nn.Module):

    def __init__(self):
        super(Model, self).__init__()
        self.conv1 = torch.nn.Sequential(torch.nn.Conv2d(1, 4, kernel_size=5, stride=1,padding=0),
                                         torch.nn.MaxPool2d(stride=4, kernel_size=4))

        self.dense = torch.nn.Sequential(torch.nn.Linear(6 * 6 * 4, 33),
                                         torch.nn.ReLU(),
                                         torch.nn.Linear(33, 10))

    def forward(self, x):
        x = self.conv1(x)
        x = x.view(-1, 6 * 6 * 4)  #把卷积池化得到的向量平铺开
        x = self.dense(x)
        return x

conv :卷积层(2d就是二维平面的)

  kernel_size 卷积核大小

  stride 每次移动的步长

  padding 四周填充的大小,注意是四周所以在算下一层的向量维度时要将padding 乘以 2

  maxpool2d 二维平面的池化层

dense:全链接层

  Linear 一层神经元 输入维数 输出维数

  激活函数

  输出层,10分类

 

forward 函数里的view(-1,n)就是把卷积池化得到的2维向量展开成1维的,便于传入全连接层

  

转载于:https://www.cnblogs.com/cunyusup/p/9573656.html

### PyTorchCNN参数详解 在构建卷积神经网络 (CNN) 时,理解每一层的参数对于设计有效的架构至关重要。下面详细介绍 `nn.Conv2d` 和全连接层 (`nn.Linear`) 的主要参数。 #### 卷积层参数解析 定义一个二维卷积操作通常会涉及到以下几个重要参数: - **in_channels**: 输入图像通道数,在灰度图像是1,彩色RGB图像是3。 - **out_channels**: 输出特征映射的数量,即该层产生的滤波器数量。 - **kernel_size**: 卷积核大小,可以是一个整数表示方形窗口尺寸,也可以是两个整数组成的元组指定不同宽度和高度[^1]。 ```python import torch.nn as nn class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() # 定义第一个卷积层 self.conv1 = nn.Conv2d( in_channels=1, out_channels=6, kernel_size=(5, 5), ) ``` 除了上述基本配置外,还有其他可选参数用于调整行为: - **stride**: 步幅,默认为1;控制每次移动多少像素来应用过滤器。 - **padding**: 填充量,默认无填充;允许保持输入输出的空间维度一致或增加边界处理能力。 - **bias**: 是否使用偏置项,默认True。 这些选项可以根据具体应用场景灵活设置以满足不同的需求。 #### 全连接层参数说明 当数据经过多轮卷积池化之后进入分类阶段,则需要用到线性变换完成最终预测任务。此时需要明确知道展平后的向量长度以便正确初始化权重矩阵。 - **in_features**: 输入节点数目,对应于前一层输出张量被拉直后的总元素个数。 - **out_features**: 输出节点数目,通常是类别总数或者是下一层所需的输入维数。 ```python def __init__(self): ... # 计算fc1层的输入特征数基于conv2层输出形状 fc_input_dim = 12 * 4 * 4 self.fc1 = nn.Linear( in_features=fc_input_dim, out_features=120 ) self.fc2 = nn.Linear(120, 60) self.out = nn.Linear(60, 10) ``` 通过合理设定各层之间的转换关系以及相应的超参取值范围,能够有效提升模型性能并减少过拟合风险。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值