Pytorch学习笔记(一) 使用PyTorch搭建神经网络的套路

本文介绍了使用PyTorch构建神经网络的基本流程,包括导入模块、自定义Net类、顺序容器构建网络、定义训练和测试函数、模型保存与提取。通过一个MNIST手写数字识别的示例,详细阐述了每个步骤的关键点,适合PyTorch初学者参考。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

自古套路得人心!!!

建议初学者在开始实践各种Eaxmple之前,先把这篇博客看一下,coding细节不用看,主要是了解一下Pytorch构建神经网络是一个怎样的流程,大佬请忽略,小的不才,还请多多指教!!!

目录

1. 导入常用模块

import torch
import torch.nn as nn	# 各种层类型的实现
import torch.nn.functional as F	# 各中层函数的实现,与层类型对应,如:卷积函数、池化函数、归一化函数等等
import torch.optim as optim	# 实现各种优化算法的包
from torchvision import datasets, transforms

2. 构建网络模型

(1) 自定义Net类并实例化

自定义模型类需要继承nn.Module,且你至少要重写__init__forward两个函数。

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        """ 初始化层类型
        self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
        self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
        self.conv2_drop = nn.Dropout2d()
        self.fc1 = nn.Linear(320, 50)
        self.fc2 = nn.Linear(50, 10)
		"""

    def forward(self, x):
	    """ 定义前向传播
        x = F.relu(F.max_pool2d(self.conv1(x), 2))
        x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
        x = x.view(-1, 320) # 类似于np.reshape
        x = F.relu(self.fc1(x))
        x = F.dropout(x, training=self.training)
        x = self.fc2(x)
        return F.log_softmax(x, dim=1)
        """
model = Net().to(device)	# 实例化自定义网络模型

(2) 使用顺序容器构建网络并实例化

顺序容器,模型将按照它们在构造函数中传递的顺序添加到容器中 或者 也可以传入模型的有序字典。

# Example of using Sequential
model = nn.Sequential(
          nn.Conv2d(1,20,5),
          nn.ReLU(),
          nn.Conv2d(20,64,5),
          nn.ReLU()
        )

# Example of using Sequential with OrderedDict
model = nn.Sequential(OrderedDict([
          ('conv1', nn.Conv2d(1,20,5)),
          ('relu1', nn.ReLU()),
          ('conv2', nn.Conv2d(20,64,5)),
          ('relu2', nn.ReLU())
        ]))

3. 定义训练函数

网络模型构建好之后,开始要定义一个训练函数def train(),采用函数定义的方式,代码规范,可读性强,下面附上常见套路,不见得非要一致,作为参考:

def train(args, model, device, train_loader, optimizer, epoch): # 还可添加loss_func等参数
    model.train() # 必备,将模型设置为训练模式
    for batch_idx, (data, target) in enumerate(train_loader): # 从数据加载器迭代一个batch的数据
        data, target = data.to(device), target.to(device) # 将数据存储CPU或者GPU
        optimizer.zero_grad() # 清除所有优化的梯度
        output = model(data)  # 喂入数据并前向传播获取输出
        loss = F.nll_loss(output, target) # 调用损失函数计算损失
        loss.backward() # 反向传播
        optimizer.step() # 更新参数
        if batch_idx % args.log_interval == 0: # 根据设置的显式间隔输出训练日志
            print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                epoch, batch_idx * len(data), len(train_loader.dataset),
                100. * batch_idx / len(train_loader), loss.item()))

4. 定义测试函数

def test(args, model, device
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值