torch.nn神经网络(2)--池化层+非线性激活函数(ReLU和Sigmiod)+Sequential()函数的使用

nn.Module神经网络

4.池化层

池化层:池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。 本质是降采样,减少网络的参数量

还是老规矩,导入模块及数据集,CIFAR10,batchsize=64:

import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

dataset = torchvision.datasets.CIFAR10('./dataset',train=False,transform=torchvision.transforms.ToTensor(),download=True)

dataloader = DataLoader(dataset,batch_size=64)

我们本次采用的式MaxPool2d的池化函数,其输入和输出的类型如下:
input(batchsize,channel,高H,宽W)
output(batchsize,channel,高H,宽W)
在这里插入图片描述

因此,首先根据下图中的信息,构造一个input为tensor数据类型的二维矩阵,在使用reshape函数将其转化为MaxPool2d函数所需的size类型:
在这里插入图片描述

input = torch.tensor([[1,2,0,3,1],
                      [0,1,2,3,1],
                      [1,2,1,0,0],
                      [5,2,3,1,1],
                      [2,1,0,1,1]],dtype
torch.nn.Sequential()函数PyTorch中的一个类,可以用于构建神经网络模型。它允许我们按照顺序将多个层(layers)组合在一起,构建一个神经网络模型。 使用torch.nn.Sequential()函数时,我们可以将多个层作为参数传递给它,按照传递的顺序依次添到模型中。每个层都可以是PyTorch中提供的预定义层(如全连接层、卷积层等),也可以是自定义的层。 下面是一个简单的示例,展示了如何使用torch.nn.Sequential()函数构建一个简单的前馈神经网络模型: ```python import torch import torch.nn as nn # 定义一个简单的前馈神经网络模型 model = nn.Sequential( nn.Linear(784, 256), # 全连接层1:输入大小为784,输出大小为256 nn.ReLU(), # ReLU激活函数 nn.Linear(256, 128), # 全连接层2:输入大小为256,输出大小为128 nn.ReLU(), # ReLU激活函数 nn.Linear(128, 10), # 全连接层3:输入大小为128,输出大小为10(输出类别数) nn.Softmax(dim=1) # Softmax激活函数,用于多分类问题 ) # 打印模型结构 print(model) ``` 在这个例子中,我们使用torch.nn.Sequential()函数创建了一个模型,并按照顺序添了三个全连接层以及两个激活函数。最后一个全连接层的输出大小设置为10,因为我们假设这是一个10类分类问题。最后,我们使用print语句打印了模型的结构。 这样,通过torch.nn.Sequential()函数,我们可以方便地按照顺序组合多个层,构建神经网络模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值