在上一篇文章中,我们学习了 PyTorch 的自动求导机制(Autograd),并实现了一个简单的线性回归模型。本文将深入探讨神经网络的基本概念,并使用 PyTorch 构建一个简单的神经网络来解决经典的 手写数字识别 问题。
一、神经网络基础
神经网络是深度学习的核心,它由多个层(Layer)组成,每一层包含若干个神经元(Neuron)。神经元通过权重(Weight)和偏置(Bias)对输入数据进行线性变换,并通过激活函数(Activation Function)引入非线性。
1. 神经网络的结构
一个典型的神经网络包括以下部分:
-
输入层:接收输入数据。
-
隐藏层:对数据进行非线性变换。
-
输出层:输出最终的预测结果。
2. 激活函数
激活函数是神经网络中引入非线性的关键。常用的激活函数包括:
-
ReLU(Rectified Linear Unit):
ReLU(x) = max(0, x)
-
Sigmoid:
Sigmoid(x) = 1 / (1 + exp(-x))
-
Tanh:
Tanh(x) = (exp(x) - exp(-x)) / (exp(x) + exp(-x))
3. 损失函数
损失函数用于衡量模型预测值与真实值之间的差距。常用的损失函数包括:
-
均方误差(MSE):用于回归问题。
-
交叉熵损失(Cross-Entropy Loss):用于分类问题。
4. 优化器
优化器用于更新模型参数以最小化损失函数。常用的优化器包括:
-
随机梯度下降(SGD)
-
Adam
二、手写数字识别实战
手写数字识别是深度学习中的经典问题,我们将使用 MNIST 数据集 来训练一个简单的神经网络模型。
1. 问题描述
MNIST 数据集包含 60,000 张训练图像和 10,000 张测试图像,每张图像是一个 28x28 的灰度图,表示 0 到 9 的手写数字。我们的目标是构建一个神经网络模型,能够正确识别这些手写数字。
2. 实现步骤
-
加载和预处理数据。
-
定义神经网络模型。
-
定义损失函数和优化器。
-
训练模型。
-
测试模型并评估性能。
3. 代码实现
import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
import matplotlib.pyplot as plt
# 设置 Matplotlib 支持中文显示
plt.rcParams['font.sans-serif'] = ['SimHei'] # 设置字体为 SimHei(黑体)
plt.rcParams['axes.unicode_minus'] = False # 解决负号显示问题
# 1. 加载和预处理数据
transform = transforms.Compose([
transforms.ToTensor(), # 将图像转换为张量
transforms.Normalize((0.1307,), (0.3081,)) # 标准化
])
# 下载并加载训练集和测试集
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)
train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False)
# 2. 定义神经网络模型
class SimpleNN(nn.Module):
def __init__(self):
super(SimpleNN, self).__init__()
self.fc1 = nn.Linear(28 * 28, 128) # 全连接层,输入 28x28,输出 128
self.fc2 = nn.Linear(128, 64) # 全连接层,输入 128,输出 64
self.fc3 = nn.Linear(64, 10) # 全连接层,输入 64,输出 10(10 个类别)
def forward(self, x):
x = x.view(-1, 28 * 28) # 将图像展平为一维向量
x = torch.relu(self.fc1(x)) # 第一层 + ReLU 激活
x = torch.relu(self.fc2(x)) # 第二层 + ReLU 激活
x = self.fc3(x) # 输出层
return x
model = SimpleNN()
# 3. 定义损失函数和优化器
criterion = nn.CrossEntropyLoss() # 交叉熵损失
optimizer = optim.Adam(model.parameters(), lr=0.001) # Adam 优化器
# 4. 训练模型
num_epochs = 5
loss_history = []
for epoch in range(num_epochs):
for i, (images, labels) in enumerate(train_loader):
# 前向传播
outputs = model(images)
loss = criterion(outputs, labels)
# 反向传播
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 记录损失
if (i + 1) % 100 == 0:
loss_history.append(loss.item())
print(f"Epoch [{epoch + 1}/{num_epochs}], Step [{i + 1}/{len(train_loader)}], Loss: {loss.item():.4f}")
# 5. 测试模型
model.eval() # 设置模型为评估模式
correct = 0
total = 0
with torch.no_grad():
for images, labels in test_loader:
outputs = model(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print(f"测试集准确率: {100 * correct / total:.2f}%")
# 6. 可视化损失曲线
plt.plot(loss_history)
plt.xlabel("训练步数")
plt.ylabel("损失值")
plt.title("训练损失曲线")
plt.show()
三、代码解析
-
数据加载与预处理:
-
使用
torchvision.datasets.MNIST
加载 MNIST 数据集。 -
使用
transforms.ToTensor()
将图像转换为张量,并进行标准化。
-
-
神经网络模型:
-
定义了一个简单的全连接神经网络
SimpleNN
,包含两个隐藏层和一个输出层。 -
使用
ReLU
作为激活函数。
-
-
训练过程:
-
使用交叉熵损失函数和 Adam 优化器。
-
训练 5 个 epoch,并记录损失值。
-
-
测试过程:
-
在测试集上评估模型性能,计算准确率。
-
-
可视化:
-
绘制训练损失曲线。
-
四、运行结果
运行上述代码后,你将看到以下输出:
-
训练过程中每 100 步打印一次损失值。
-
测试集准确率(通常在 95% 以上)。
-
训练损失曲线图。
五、总结
本文介绍了神经网络的基本概念,并使用 PyTorch 实现了一个简单的手写数字识别模型。通过这个例子,我们学习了如何定义神经网络、加载数据、训练模型以及评估性能。
在下一篇文章中,我们将学习如何使用卷积神经网络(CNN)来进一步提升手写数字识别的性能。敬请期待!
代码实例说明:
-
本文代码可以直接在 Jupyter Notebook 或 Python 脚本中运行。
-
如果你有 GPU,可以将模型和数据移动到 GPU 上运行,例如:
model = model.to('cuda')
,images = images.to('cuda')
。
希望这篇文章能帮助你更好地理解神经网络的基础知识!如果有任何问题,欢迎在评论区留言讨论。