跟着b站up主学习整理:2.1 pytorch官方demo(Lenet)_哔哩哔哩_bilibili
目录
一、CNN的雏形——LeNet网络结构
1998年,LeCun等人发布了LeNet网络,从而揭开了深度学习的面纱,之后的深度神经网络都是在这个基础之上进行改进的,其结构如图所示。
如图,LeNet是由卷积层、池化层、全连接层的顺序连接,网络中的每个层使用一个可微分的函数将激活数据从一层传递到另一层。
- pytorch 中 tensor(也就是输入输出层)的通道排序为:
[batch, channel, height, width]
- pytorch中的卷积、池化、输入输出层中参数的含义与位置如下图所示:
二、官网demo文件
pytorch官网给出的LeNet demo文件如图所示:
- model.py——定义LeNet网络模型
- train.py——加载数据集并训练,训练集计算损失值loss,测试集计算accuracy,保存训练好的网络参数
- predict.py——利用训练好的网络参数后,用自己找的图像进行分类测试
三、代码实现
1.model.py
# 使用torch.nn包来构建神经网络.
import torch.nn as nn
import torch.nn.functional as F
class LeNet(nn.Module): # 继承于nn.Module这个父类
def __init__(self): # 初始化网络结构
super(LeNet, self).__init__() # 多继承需用到super函数
self.conv1 = nn.Conv2d(3, 16, 5)
self.pool1 = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(16, 32, 5)
self.pool2 = nn.MaxPool2d(2, 2)
self.fc1 = nn.Linear(32*5*5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x): # 正向传播过程
x = F.relu(self.conv1(x)) # input(3, 32, 32) output(16, 28, 28)
x = self.pool1(x) # output(16, 14, 14)
x = F.relu(self.conv2(x)) # output(32, 10, 10)
x = self.pool2(x) # output(32, 5, 5)
x =