pytorch 模型训练(以CIFAR10数据集为例)

本文详细介绍了使用PyTorch进行深度学习模型训练的基本步骤,以CIFAR10数据集为例,包括数据加载、神经网络构建、损失函数、优化器设置以及训练和测试过程。同时,提到了训练结果的可视化方法,如使用TensorBoard进行展示。文章最后指出,虽然例子在CPU上运行,但实际应用中推荐在GPU上进行训练以提高效率。
部署运行你感兴趣的模型镜像

在pytorch模型训练时,基本的训练步骤可以大致地归纳为:

准备数据集--->搭建神经网络--->创建网络模型--->创建损失函数--->设置优化器--->训练步骤开始--->测试步骤开始

本文以pytorch官网中torchvision中的CIFAR10数据集为例进行讲解。

需要用到的库为(这里说一个小技巧,比如可以在没有import对应库的情况下先输入"torch",,之后将光标移到torch处单击,这时左边就会出现一个红色的小灯泡,点开它就可以import对应的库了):

import torch
import torchvision
from torch import nn
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

 准备数据集

数据集分为“训练数据集”+“测试数据集”。CIFAR数据集是由50000训练集和10000测试集组成。这里可以调用torchvision.datasets对CIFAR10数据集进行获取:

#训练数据集
train_data=torchvision.datasets.CIFAR10(root='./dataset',train=True,transform=torchvision.transforms.ToTensor(),download=True)
#测试数据集
test_data=torchvision.datasets.CIFAR10(root='./dataset',train=False,transform=torchvision.transforms.ToTensor(),download=True)

#利用dataloader来加载数据集
train_data_loader=DataLoader(train_data,batch_size=64)
test_data_loader=DataLoader(test_data,batch_size=64)

root是数据集保存的路径,这里笔者使用的是相对路径;对于训练集train=True,而测试集train=False;transform是将数据集的类型转换为tensor类型;download一般设置为True。之后利用DataLoader对数据集进行加载即可,其中batch_size表示单次传递给程序用以训练的数据(样本)个数。

(这里可以再获取下测试集数据的长度,这样后面在测试步骤时就可以通过计算得到整体测试集上的准确率

搭建神经网络

pytorch官网提供了一个神经网络的简单实例:

import torch.nn as nn
import torch.nn.functional as F

class Model(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(1, 20, 5)
        self.conv2 = nn.Conv2d(20, 20, 5)

    def forward(self, x):
        x = F.relu(self.conv1(x))
        return F.relu(self.conv2(x))

这个实例展示了神经网络的基本架构。

从百度上我们可以搜索到CIFAR10数据集的网络基本架构:

 从原理图中可以看到,该网络从输入(inputs)到输出(outputs)先后经过了

卷积(Convolution)--->最大池化(Max-pooling)--->卷积--->最大池化--->卷积--->最大池化--->展平(Flatten)--->2次线性层

由此可以开始搭建神经网络,笔者将网络命名为MXC:

class Flatten(nn.Module):
    def forward(self, input):
        return input.view(input.size(0), -1)
#搭建神经网络
class MXC(nn.Module):
    def __init__(self):
        super(MXC, self).__init__()
        self.model=nn.Sequential(
            nn.Conv2d(3,32,5,1,2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,32,5,1,2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,64,5,1,2),
            nn.MaxPool2d(2),
            Flatten(),
            nn.Linear(64*4*4,64),
            nn.Linear(64,10)
        )

    def forward(self,x):
        x=self.model(x)
        return x

注:这里Flatten类自己写的原因是笔者使用的torch版本中没有展平类,因此需要自己构建,可以参考解决 ImportError: cannot import name ‘Flatten‘ from ‘torch.nn‘_全幼儿园最聪明的博客-优快云博客

创建网络模型

mxc=MXC()

创建损失函数

loss_fn=nn.CrossEntropyLoss()

设置优化器

learning_rate=1e-2
optimizer=torch.optim.SGD(params=mxc.parameters(),lr=learning_rate)

这里params是网络模型;lr是学习速率,一般设置小一些(0.01)。

训练步骤+测试步骤开始

先设置一些参数

#设置训练网络的一些参数
#记录训练的次数
total_train_step=0
#记录测试的次数
total_test_step=0
#记录测试的准确率
total_accuracy=0
#训练的轮数
epoch=10

将训练步骤和测试步骤放入一个大循环中,进入循环开始训练:

for i in range(epoch):
    print("-----第{}轮训练开始------".format(i+1))

    #训练步骤开始
    for data in train_data_loader:
        imgs,targets=data
        output=mxc(imgs)
        loss=loss_fn(output,targets)

        #优化器优化模型
        optimizer.zero_grad()#梯度清零
        loss.backward()#反向传播
        optimizer.step()#参数优化


        total_train_step=total_train_step+1
        if total_train_step%100==0:
            print("训练次数:{} , Loss:{}".format(total_train_step, loss))  # 更正规的可以写成loss.item()
         

    #测试步骤开始
    total_test_loss=0
    with torch.no_grad():
        for data in test_data_loader:
            imgs,targets=data
            output=mxc(imgs)
            loss=loss_fn(output,targets)
            total_test_loss=total_test_loss+loss
            accuracy=(output.argmax(1)==targets).sum()
            total_accuracy=total_accuracy+accuracy
    print("整体测试集上的Loss:{}".format(total_test_loss))
    print("整体测试集上的准确率:{}".format(total_accuracy/test_data_size))
    total_test_step=total_test_step+1#测试的次数,其实就是第几轮


    #保存模型
    torch.save(mxc,"mxc_cpu{}.pth".format(i+1))#mxc_1是cpu版的
    print("模型已保存")

这里每一个data中包含有图片+标签,需要将图片(imgs)放入之前搭建好的神经网络模型mxc中去。笔者这里设置的是每训练100次打印1次,训练完一轮后会将模型进行保存,注意文件类型是pth格式。

如果想让训练后的结果可视化,有两种方法:

1.在循环前调用SummaryWriter添加tensorboard:

#添加tensorboard
writer=SummaryWriter('./logs_train')

并在循环的适当位置中插入writer.add_scalar

        if total_train_step%100==0:
            print("训练次数:{} , Loss:{}".format(total_train_step, loss))  # 更正规的可以写成loss.item()
            writer.add_scalar("train_loss",loss.item(),total_train_step)
print("整体测试集上的Loss:{}".format(total_test_loss))
print("整体测试集上的准确率:{}".format(total_accuracy/test_data_size))
total_test_step=total_test_step+1#测试的次数,其实就是第几轮
writer.add_scalar("test_loss",total_test_loss,total_test_step)
writer.add_scalar("test_accuracy",total_accuracy/test_data_size,total_test_step)

在运行结束后,打开Terminal输入(注意,前面需要显示pytorch,因为只有在pytorch环境下才可以,如果没有显示还要切换到pytorch才行,可以输入activate pytorch):

                                                tensorboard --logdir=logs_train --port=6007

这里的“logs_train”是在SummaryWriter中设置的保存路径。运行之后,就可以在tensorboard中查看随着训练次数的增加测试集上的Loss和准确率的趋势图像。

2.调用matlab库自己进行绘制

总结

本文简要介绍了pytorch模型训练的一个基本流程,并以CIFAR10数据集进行了演示。但这种方法是在CPU(device=“cpu”)上进行训练的,训练速度比较慢,如果数据集十分庞大不建议使用这种方法,应该在GPU(device=“cuda”)上进行训练。

您可能感兴趣的与本文相关的镜像

PyTorch 2.8

PyTorch 2.8

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>嗯,用户想用PyTorch构建并训练ResNet模型来处理CIFAR10数据集。首先,我得回忆一下ResNet的结构,尤其是残差块的部分。ResNet有不同的版本,比如ResNet18、34、50等,不过CIFAR10的图片尺寸比较小,32x32,可能不需要太深的网络。比如ResNet18可能比较合适,但需要调整一下第一个卷积层,因为原始ResNet是为ImageNet设计的,输入尺寸较大,所以可能需要修改初始的卷积核大小和步长。 然后,数据预处理部分。CIFAR10的数据需要做归一化,通常是用均值和标准差来归一化,比如mean=[0.485, 0.456, 0.406],std=[0.229, 0.224, 0.225],不过这些值是基于ImageNet的,可能用户需要根据CIFAR10的实际数据计算新的均值和标准差。不过可能用户直接使用这些参数也可以,或者调整一下。另外,数据增强的话,可以考虑随机水平翻转、随机裁剪等,增加数据多样性。 接下来是模型构建。PyTorch的torchvision里已经有现成的ResNet模型,比如resnet18,但需要修改第一层卷积的参数。原始ResNet的第一层是7x7卷积,stride=2,padding=3,然后接一个max pooling,但这样对于32x32的图片可能下采样太多,导致特征图太小。所以可能需要将第一个卷积层改成3x3,stride=1,padding=1,并且去掉max pooling层。同时,最后的全连接层需要调整输出类别数为10,因为CIFAR1010个类别。 然后是训练过程。需要设置优化器,比如SGD或者Adam,学习率调整策略,比如StepLR或者余弦退火。损失函数用交叉熵损失。还要考虑是否使用预训练权重,不过CIFAR10是3通道的,如果使用ImageNet预训练模型,可能有助于提升性能,尤其是当数据集较小的时候。但用户的问题可能没有提到是否要使用预训练模型,所以可能需要两种情况都说明一下。 代码示方面,需要导入必要的库,比如torch, torchvision, datasets, transforms, nn, optim等。数据加载部分使用CIFAR10数据集,应用相应的transform。模型加载时修改第一层和全连接层,然后定义训练循环和验证循环。训练过程中需要将数据转移到GPU,如果有的话,使用device变量管理。 另外,用户提供的引用中提到了加载ResNet34的方式,但用户的问题是关于CIFAR10的,所以可能需要调整模型结构。需要指出如何修改ResNet的结构以适应小尺寸图片。同时,训练时的超参数设置,比如batch size、epoch数、学习率等,需要给出建议值,但也要说明可以根据实际情况调整。 可能遇到的问题包括过拟合,所以需要加入正则化方法,比如数据增强、Dropout层、权重衰减等。训练过程中需要监控训练集和验证集的准确率,调整学习率。另外,训练时间可能较长,建议使用GPU加速。 最后,生成相关问题时要考虑用户可能的后续问题,比如如何提升准确率、调整学习率、处理过拟合、使用预训练模型以及可视化训练过程等。</think>以下是如何使用PyTorch构建和训练ResNet网络处理CIFAR10数据集的完整实现方法: ### 一、数据预处理 ```python import torch from torchvision import datasets, transforms # 数据增强与归一化 transform_train = transforms.Compose([ transforms.RandomCrop(32, padding=4), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)), ]) transform_test = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)), ]) # 加载数据集 trainset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform_train) testset = datasets.CIFAR10(root='./data', train=False, download=True, transform=transform_test) ``` ### 二、模型构建(适配CIFAR10) ```python import torchvision.models as models import torch.nn as nn def create_resnet(): # 加载预训练模型 model = models.resnet18(pretrained=False) # CIFAR10从头训练 # 修改第一层卷积(适配32x32输入) model.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1, bias=False) # 移除原模型中的最大池化层 model.maxpool = nn.Identity() # 修改全连接层 model.fc = nn.Linear(512, 10) # CIFAR1010个类别 return model net = create_resnet().to(device) ``` ### 三、训练流程 ```python import torch.optim as optim criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.1, momentum=0.9, weight_decay=5e-4) scheduler = optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=200) for epoch in range(200): net.train() for inputs, labels in trainloader: inputs, labels = inputs.to(device), labels.to(device) optimizer.zero_grad() outputs = net(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() scheduler.step() # 验证集测试 net.eval() with torch.no_grad(): # ...验证代码... ``` ### 四、关键优化点 1. 输入层适配:将原ResNet的$7 \times 7$卷积改为$3 \times 3$卷积,避免特征图过早缩小 2. 学习率调度:使用余弦退火算法调整学习率,公式为: $$ \eta_t = \eta_{min} + \frac{1}{2}(\eta_{max}-\eta_{min})(1+\cos(\frac{T_{cur}}{T_{max}}\pi)) $$ 3. 数据增强:包含随机裁剪和水平翻转,提升模型泛化能力[^1]
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值