pytorch之手写数字识别

这篇博客介绍了如何使用PyTorch搭建一个包含三层的神经网络,对MNIST数据集进行手写数字识别。作者首先定义了网络结构,包括两个隐藏层和一个输出层,并使用了批量归一化和ReLU激活函数。接着,设置了训练参数,如批大小、学习率和迭代次数。在训练过程中,利用交叉熵损失函数和SGD优化器进行模型优化。最后,展示了模型在测试集上的损失和准确率。

记一下学习pytorch一次程序练习,主要功能是实现构造三层神经网络识别MNIST数据集,最后的识别结果:在这里插入图片描述
本文代码如下:

import torch
import numpy as np
import matplotlib.pyplot as plt
from torch import nn
from torch import optim
import os
from torch.autograd import Variable
from torch.utils.data import DataLoader
from torchvision import datasets,transforms         #导入库以及工具包


os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
batch_size=64
learning_rate=0.001
num_epoches=30        #定义参数


data_tf=transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5],[0.5])])    #对数据集进行处理,将图片转换成tensor类型并且归一标准化
#

train_dataset=datasets.MNIST(root='./data',train=True,transform=data_tf,download=True)
test_dataset=datasets.MNIST(root='./data',train=False,transform=data_tf,download=True)
train_loader=DataLoader(train_dataset,batch_size=batch_size,shuffle=True)
test_loader=DataLoader(test_dataset,batch_size=batch_size,shuffle=False)            #通过python内部程序dataloader下载MNIST手写字体数据集


class Batch_Net(nn.Module):                  #定义一个神经网络,作为识别分类
    def __init__(self,in_dim,n_hidden_1,n_hidden_2,out_dim):
        super(Batch_Net, self).__init__()      #初始化模型
        self.layer1=nn.Sequential(nn.Linear(in_dim,n_hidden_1),nn.BatchNorm1d(n_hidden_1),nn.ReLU(True))  #构造第一层网络
        self.layer2=nn.Sequential(nn.Linear(n_hidden_1,n_hidden_2),nn.BatchNorm1d(n_hidden_2),nn.ReLU(True))#构造第二层网络
        self.layer3=nn.Sequential(nn.Linear(n_hidden_2,out_dim)) #构造第三层网络,即输出层

    def forward(self,x):          #前向传播过程
        x=self.layer1(x)
        x=self.layer2(x)
        x=self.layer3(x)
        return x


model=Batch_Net(28*28,300,100,10)          #加载模型并输出参数
criterion=nn.CrossEntropyLoss()            #构造损失函数为交叉熵
optimizer=optim.SGD(model.parameters(),lr=learning_rate,momentum=0.9)     #定义优化器,设置学习率以及动量

for epoch in range(num_epoches):           #开始训练,进行迭代
    for tr_data in train_loader:           #开始将训练集中的数据送入模型中
        train_img, train_label = tr_data
        train_img = train_img.view(train_img.size(0), -1)
        with torch.no_grad():
            train_img = Variable(train_img)
            train_label = Variable(train_label)
        out = model(train_img)
        loss = criterion(out, train_label)
        print_loss=loss.item()
        optimizer.zero_grad()     #先归零梯度
        loss.backward()             #反向传播
        optimizer.step()            #进行步长
        if (epoch+1)%10==0:         #显示训练过程
            print('*'*10)
            print('epoch{}'.format(epoch+1))
            print('loss:{:.4f}'.format(print_loss))


model.eval()           #调用函数开始训练
eval_loss=0
eval_acc=0
for data in test_loader:
    img,label=data          #开始测试过程
    img=img.view(img.size(0),-1)
    with torch.no_grad():
        img=Variable(img)
        label=Variable(label)
    out=model(img)
    loss=criterion(out,label)
    eval_loss+=loss.item()*label.size(0)
    _,pred=torch.max(out,1)
    num_correct=(pred==label).sum()
    eval_acc+=num_correct.item()
    print('Test Loss:{:.6f},acc:{:.6f}'.format(eval_loss/(len(test_dataset)),eval_acc/(len(test_dataset))))            #输出最后结果

参考《深度学习入门之pytorch》廖星宇著。

评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值