自古套路得人心!!!
建议初学者在开始实践各种Eaxmple之前,先把这篇博客看一下,coding细节不用看,主要是了解一下Pytorch构建神经网络是一个怎样的流程,大佬请忽略,小的不才,还请多多指教!!!
目录
文章目录
1. 导入常用模块
import torch
import torch.nn as nn # 各种层类型的实现
import torch.nn.functional as F # 各中层函数的实现,与层类型对应,如:卷积函数、池化函数、归一化函数等等
import torch.optim as optim # 实现各种优化算法的包
from torchvision import datasets, transforms
2. 构建网络模型
(1) 自定义Net类并实例化
自定义模型类需要继承nn.Module
,且你至少要重写__init__
和forward
两个函数。
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
""" 初始化层类型
self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
self.conv2_drop = nn.Dropout2d()
self.fc1 = nn.Linear(320, 50)
self.fc2 = nn.Linear(50, 10)
"""
def forward(self, x):
""" 定义前向传播
x = F.relu(F.max_pool2d(self.conv1(x), 2))
x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
x = x.view(-1, 320) # 类似于np.reshape
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x, dim=1)
"""
model = Net().to(device) # 实例化自定义网络模型
(2) 使用顺序容器构建网络并实例化
顺序容器,模型将按照它们在构造函数中传递的顺序添加到容器中 或者 也可以传入模型的有序字典。
# Example of using Sequential
model = nn.Sequential(
nn.Conv2d(1,20,5),
nn.ReLU(),
nn.Conv2d(20,64,5),
nn.ReLU()
)
# Example of using Sequential with OrderedDict
model = nn.Sequential(OrderedDict([
('conv1', nn.Conv2d(1,20,5)),
('relu1', nn.ReLU()),
('conv2', nn.Conv2d(20,64,5)),
('relu2', nn.ReLU())
]))
3. 定义训练函数
网络模型构建好之后,开始要定义一个训练函数def train()
,采用函数定义的方式,代码规范,可读性强,下面附上常见套路,不见得非要一致,作为参考:
def train(args, model, device, train_loader, optimizer, epoch): # 还可添加loss_func等参数
model.train() # 必备,将模型设置为训练模式
for batch_idx, (data, target) in enumerate(train_loader): # 从数据加载器迭代一个batch的数据
data, target = data.to(device), target.to(device) # 将数据存储CPU或者GPU
optimizer.zero_grad() # 清除所有优化的梯度
output = model(data) # 喂入数据并前向传播获取输出
loss = F.nll_loss(output, target) # 调用损失函数计算损失
loss.backward() # 反向传播
optimizer.step() # 更新参数
if batch_idx % args.log_interval == 0: # 根据设置的显式间隔输出训练日志
print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
epoch, batch_idx * len(data), len(train_loader.dataset),
100. * batch_idx / len(train_loader), loss.item()))
4. 定义测试函数
def test(args, model, device