使用卷积神经网络识别MNIST数据集

卷积神经网络

卷积神经网络本质是共享权重+稀疏链接的全连接网络

编写步骤

构建一个神经网络,步骤是几乎不变的,大概有以下几步

  • 准备数据集
#更高级的CNN网络
import torch
import torch.nn as nn
import torch.nn.functional as F
import torchvision
import torchvision.transforms as transforms
import torch.optim as optim
#准备数据集
batch_size = 64

transforms = transforms.Compose([transforms.ToTensor(),
                                transforms.Normalize((0.1307,),(0.3081,))])

trainset = torchvision.datasets.MNIST(root=r'../data/mnist',
                                      train=True,
                                      download=True,
                                      transform=transforms)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=batch_size, shuffle=True)



testset = torchvision.datasets.MNIST(root=r'../data/mnist',
                                     train=False,
                                     download=True,
                                     transform=transforms)
testloader = torch.utils.data.DataLoader(testset, batch_size=batch_size, shuffle=False)

不使用官方数据集读取方法,可以自己继承Dataset类重写

class Mydataset(Dataset):
    def __init__(self,filepath):
        xy=np.loadtxt(filepath,delimiter=',',dtype=np.float32)
        self.len=xy.shape[0]
        self.x_data=torch.from_numpy(xy[:,:-1])
        self.y_data=torch.from_numpy(xy[:,[-1]])
    #魔法方法,容许用户通过索引index得到值
    def __getitem__(self,index):
        return self.x_data[index],self.y_data[index]
    def __len__(self):
        return self.len
  • 构建模型
class CNN_net(nn.Module):
    def __init__(self):
        super(CNN_net, self).__init__()
        self.conv1 = nn.Conv2d(1, 10, kernel_size=3, bias=False)#输出存为[10,26,26]
        self.conv2 = nn.Conv2d(10, 20, kernel_size=3, bias=False)#输出为【20,5,5】
        self.pooling = nn.MaxPool2d(2, 2)#输出为将其中尺寸减半
        self.fc1 = nn.Linear(500, 10)
    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))
        x = F.relu(self.pooling(self.conv2(x)))
        #
        x = x.view(batch_size, -1)
        #(x.size())
        x = F.relu(self.fc1(x))
        return x

如果想使用残差网络可以定义残差网络块儿

# 定义残差网络块儿
class ResidualBlock(nn.Module):
    def __init__(self, channels):
        super(ResidualBlock, self).__init__()
        self.conv1 = nn.Conv2d(channels, kernel_size=3, padding=1, bias=False)
        self.conv2 = nn.Conv2d(channels,channels, kernel_size=3, padding=1, bias=False)
    def forward(self, x):
        out = F.relu(self.conv1(x))
        out = self.conv2(out)
        return F.relu(out + x)

那么对应的forward哪里可以添加进去残差块


class CNN_net(nn.Module):
    def __init__(self):
        super(CNN_net, self).__init__()
        self.conv1 = nn.Conv2d(1, 10, kernel_size=3, bias=False)#输出存为[10,26,26]
        self.conv2 = nn.Conv2d(10, 20, kernel_size=3, bias=False)#输出为【20,5,5】
        self.resblock1 = ResidualBlock(10)
        self.resblock2 = ResidualBlock(20)
        self.pooling = nn.MaxPool2d(2, 2)#输出为将其中尺寸减半
        self.fc1 = nn.Linear(500, 10)
    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))
        x=self.resblock1(x)
        x = F.relu(self.pooling(self.conv2(x)))
        x = self.resblock2(x)
        x = x.view(batch_size, -1)
        #(x.size())
        x = F.relu(self.fc1(x))
        return x

  • 构建模型和损失函数
# 构建模型和损失
model=CNN_net()

# 定义一个设备,如果我们=有能够访问的CUDA设备
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(torch.cuda.is_available())
#将模型搬移到CUDA支持的GPU上面
model.to(device)
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

  • 训练(和测试)模型
def train(epoch):
    running_loss = 0.0
    for batch_idx, (inputs, targets) in enumerate(trainloader):
        inputs,targets = inputs.to(device),targets.to(device)
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, targets)
        loss.backward()
        optimizer.step()
        #需要将张量转换为浮点数运算
        running_loss += loss.item()
        if batch_idx % 100 == 0:
            print('Train Epoch: {}, Loss: {:.6f}'.format(epoch, loss.item()))
            running_loss = 0
def test(epoch):
    correct = 0
    total = 0
    with torch.no_grad():
        for batch_idx, (inputs, targets) in enumerate(testloader):
            inputs,targets = inputs.to(device),targets.to(device)
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)
            total += targets.size(0)
            correct=correct+(predicted.eq(targets).sum()*1.0)
    print('Accuracy of the network on the 10000 test images: %d %%' % (100*correct/total))

全部代码

#更高级的CNN网络
import torch
import torch.nn as nn
import torch.nn.functional as F
import torchvision
import torchvision.transforms as transforms
import torch.optim as optim
#准备数据集
batch_size = 64
transforms = transforms.Compose([transforms.ToTensor(),
                                transforms.Normalize((0.1307,),(0.3081,))])

trainset = torchvision.datasets.MNIST(root=r'../data/mnist',
                                      train=True,
                                      download=True,
                                      transform=transforms)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=batch_size, shuffle=True)



testset = torchvision.datasets.MNIST(root=r'../data/mnist',
                                     train=False,
                                     download=True,
                                     transform=transforms)
testloader = torch.utils.data.DataLoader(testset, batch_size=batch_size, shuffle=False)


# 定义残差网络块儿
class ResidualBlock(nn.Module):
    def __init__(self, channels):
        super(ResidualBlock, self).__init__()
        self.conv1 = nn.Conv2d(channels,channels, kernel_size=3, padding=1, bias=False)
        self.conv2 = nn.Conv2d(channels,channels, kernel_size=3, padding=1, bias=False)
    def forward(self, x):
        out = F.relu(self.conv1(x))
        out = self.conv2(out)
        return F.relu(out + x)
# 定义卷积神经网络

class CNN_net(nn.Module):
    def __init__(self):
        super(CNN_net, self).__init__()
        self.conv1 = nn.Conv2d(1, 10, kernel_size=3, bias=False)#输出存为[10,26,26]
        self.conv2 = nn.Conv2d(10, 20, kernel_size=3, bias=False)#输出为【20,5,5】
        self.resblock1 = ResidualBlock(10)
        self.resblock2 = ResidualBlock(20)
        self.pooling = nn.MaxPool2d(2, 2)#输出为将其中尺寸减半
        self.fc1 = nn.Linear(500, 10)
    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))
        x=self.resblock1(x)
        x = F.relu(self.pooling(self.conv2(x)))
        x = self.resblock2(x)
        x = x.view(batch_size, -1)
        #(x.size())
        x = F.relu(self.fc1(x))
        return x


# 构建模型和损失
model=CNN_net()

# 定义一个设备,如果我们=有能够访问的CUDA设备
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(torch.cuda.is_available())
#将模型搬移到CUDA支持的GPU上面
model.to(device)
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

def train(epoch):
    running_loss = 0.0
    for batch_idx, (inputs, targets) in enumerate(trainloader):
        inputs,targets = inputs.to(device),targets.to(device)
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, targets)
        loss.backward()
        optimizer.step()
        #需要将张量转换为浮点数运算
        running_loss += loss.item()
        if batch_idx % 100 == 0:
            print('Train Epoch: {}, Loss: {:.6f}'.format(epoch, loss.item()))
            running_loss = 0
def test(epoch):
    correct = 0
    total = 0
    with torch.no_grad():
        for batch_idx, (inputs, targets) in enumerate(testloader):
            inputs,targets = inputs.to(device),targets.to(device)
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)
            total += targets.size(0)
            correct=correct+(predicted.eq(targets).sum()*1.0)
    print('Accuracy of the network on the 10000 test images: %d %%' % (100*correct/total))
if __name__ == '__main__':
    for epoch in range(10):
        train(epoch)
        test(epoch)

运行结果如下所示:
在这里插入图片描述

### 回答1: 基于Python的卷积神经网络可以非常有效地识别MNIST数据集MNIST是一个手写数字识别的经典数据集,包含了60000个训练样本和10000个测试样本,每个样本是一个28x28像素的灰度图像。 首先,我们需要使用Python的深度学习库Keras来构建卷积神经网络模型。卷积神经网络的核心是卷积层和池化层,这些层能够提取图像的特征。我们可以使用Conv2D函数来添加卷积层,它将输入的图像进行卷积计算。然后,我们可以使用MaxPooling2D函数来添加池化层,它可以对卷积层的输出进行下采样。 其次,我们需要将MNIST数据集进行预处理。我们可以使用Keras提供的工具函数将图像数据规范化到0到1之间,并将标签进行独热编码。这样可以更好地适应卷积神经网络的输入和输出。 接下来,我们可以定义我们的卷积神经网络模型。一个简单的卷积神经网络可以包含几个卷积层和池化层,然后是一个或多个全连接层。我们可以使用Keras的Sequential模型来构建这个模型,并逐层加入卷积层和池化层。 然后,我们需要对模型进行编译和训练。我们可以使用compile函数对模型进行配置,设置损失函数、优化器和评估指标。对于MNIST数据集的分类问题,我们可以选择交叉熵作为损失函数,并使用Adam优化器进行优化。然后,我们可以使用fit函数将模型训练在训练集上进行训练。 最后,我们可以使用训练好的模型对测试集进行预测,并评估模型的准确率。我们可以使用evaluate函数计算模型在测试集上的损失和准确率。 总结来说,通过使用Python的卷积神经网络库Keras,我们可以很容易地构建一个能够识别MNIST数据集卷积神经网络模型。该模型可以对手写数字图像进行特征提取和分类,并能够给出准确的识别结果。 ### 回答2: 基于Python的卷积神经网络(Convolutional Neural Network, CNN)可以用来识别MNIST数据集MNIST是一个手写数字的图像数据集,包含训练集和测试集,每个图像是28x28的灰度图像。 要使用CNN识别MNIST数据集,首先需要导入必要的Python库,如TensorFlow和Keras。然后,定义CNN的模型架构。模型可以包含一些卷积层、池化层和全连接层,以及一些激活函数和正则化技术。 接下来,将训练集输入到CNN模型进行训练。训练数据集包含大量有标签的图像和对应的数字标签。通过迭代训练数据集,目标是调整CNN模型的参数,使其能够准确地预测出输入图像的数字标签。 训练完成后,可以使用测试集来评估CNN模型的性能。测试集与训练集是相互独立的,其中包含一些未曾训练过的图像和相应的标签。通过使用CNN模型来预测测试集图像的标签,并将预测结果与实际标签进行比较,可以计算出模型的准确率。 对于MNIST数据集识别使用CNN相比传统的机器学习算法有许多优势。CNN可以自动提取特征,无需手动设计特征。此外,CNN可以有效地处理图像数据的空间关系和局部模式,能够更好地捕捉图像中的结构信息。这使得CNN在图像识别任务中具有较高的准确率。 总之,基于Python的卷积神经网络可以很好地识别MNIST数据集。通过构建一个CNN模型,从训练数据中学习到的参数可以用来预测测试数据中的图像标签,并通过比较预测结果和实际标签来评估模型的性能。 ### 回答3: 卷积神经网络CNN)是一种在计算机视觉领域中广泛应用的深度学习模型,其中包括卷积层、池化层和全连接层等不同层级。 在使用Python构建CNN识别MNIST数据集时,我们需要先从MNSIT数据集中加载图像和标签。接下来,我们可以使用Python的图像处理库将图像转换为适当的格式,以供CNN模型使用。 在卷积层中,我们可以使用Python的数据处理和图像处理库(如NumPy和OpenCV)来实现卷积操作。通过设置合适的滤波器和步幅,我们可以从图像中提取特征。卷积层的输出将通过使用ReLU等激活函数来进行非线性变换。 接下来是池化层,它有助于减小特征图的大小并减少计算量。在这一步骤中,我们可以使用Python的库(如NumPy)来实现最大池化或平均池化操作。 在完成卷积和池化操作后,我们将使用全连接层,将具有多个特征图的输出连接成一个向量。然后,我们可以使用Python的深度学习框架(如TensorFlow或Keras),通过神经网络的反向传播来训练CNN模型。 在训练过程中,我们可以使用Python的库(如NumPy)来进行损失函数的计算和梯度下降等操作。通过不断迭代优化CNN的权重和偏差,我们可以逐步提高模型在MNIST数据集上的准确性。 最后,我们可以使用训练好的CNN模型对新的MNIST图像进行分类预测。通过输入图像到CNN模型中,我们可以获取每个类别的概率分布,然后选择概率最高的类别标签作为预测结果。 总之,基于Python的卷积神经网络CNN)的步骤是:加载MNIST数据集、进行卷积层、池化层和全连接层操作、使用深度学习框架训练模型,并使用训练好的模型进行分类预测。这样的CNN模型可以在MNIST数据集上实现高精度的数字识别
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

书中藏着宇宙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值