<从零开始pytorch>:04-torch卷积神经网络搭建(巨详细总结)

本文从零开始介绍如何使用PyTorch搭建卷积神经网络,包括读取数据、构建模型、定义准确率评估标准、训练网络,并详细解释了torch.size()、torch.view()和DataLoader在数据处理中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

构建卷积神经网络

  • 卷积神经网络中的输入层与传统的神经网络有些区别,需要重新设计,训练模块基本一致

1.读取数据

1.dataset --> DataLoader构建batch数据
    - 既然是构建batch数据,故需要batch_size参数

2.搭建模型

 - 1.是个类
 - 2.定义__init__()函数
     - 1.继承父类
     - 2.定义用到的层 self.XXX = XXX 格式
 - 3.forward(self,x)函数中调用__init__()函数中定义好的层
     - 这个x指的是输入的数据

3.用数据和定义好的模型进行训练

- 0.训练需要实例化定义好的模型
- 1.获取到加载好的数据
- 2.定义好的模型中传入数据,获得结果
- 3.用得到的结果和真实值比较,可以得到损失值和准确率
- 4.反向传播,优化器进行梯度更新
# 导包
import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F
from torchvision import datasets,transforms
import matplotlib.pyplot as plt
import numpy as np
%matplotlib inline

1.读取数据

  • 分别构建训练集和测试集(验证集)
  • 使用DataLoader来迭代获取数据
# 定义超参数
input_size = 28 # 图像大小:28 * 28
num_classes = 10 # 标签的种类
num_epochs = 3 # 迭代的次数
batch_size = 64 # 每个批次的大小,即每64章图片一块进行一次训练

# 加载训练集
train_dataset = datasets.MNIST(
                                root='./data',
                                train=True,
                                transform=transforms.ToTensor(),
                                download=True
                                )
# 记载测试集
test_dataset = datasets.MNIST(root='./data',
                             train=False,
                             transform=transforms.ToTensor())
# 构建batch数据
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
                                          batch_size=batch_size,
                                          shuffle=True)
test_loader = torch.utils.data.DataLoader(dataset=test_dataset,
                                         batch_size=batch_size,
                                         )

2.搭建卷积神经网络模型

class CNN(nn.Module):
    def __init__(self):
        super(CNN,self).__init__()
        
        self.conv1 = nn.Sequential(    # 输入大小 (1,28,28)
            nn.Conv2d(
                in_channels=1,         # 说明是灰度图
                out_channels=16,       # 要得到多少个特征图
                kernel_size=5,         # 卷积核的大小
                stride=1,              # 步长
                padding=2),            # 边缘填充的大小
            nn.ReLU()
### 如何从零开始搭建卷积神经网络(CNN)模型 构建和训练卷积神经网络(CNN)模型涉及多个关键步骤,包括定义网络结构、准备数据集以及优化过程。以下是详细的说明: #### 定义网络结构 在 PyTorch 中,可以通过继承 `torch.nn.Module` 类来定义 CNN 的结构。典型的 CNN 结构由卷积层、池化层和全连接层组成[^1]。 ```python import torch import torch.nn as nn import torch.nn.functional as F class SimpleCNN(nn.Module): def __init__(self, num_classes=10): super(SimpleCNN, self).__init__() # 卷积(输入通道数, 输出通道数, 卷积核大小) self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1) self.conv2 = nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1) # 池化层 self.pool = nn.MaxPool2d(kernel_size=2, stride=2) # 全连接层 self.fc1 = nn.Linear(64 * 7 * 7, 128) # 假设输入图片尺寸为 28x28 self.fc2 = nn.Linear(128, num_classes) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) # 第一层卷积 + ReLU激活函数 + 最大池化 x = self.pool(F.relu(self.conv2(x))) # 第二层卷积 + ReLU激活函数 + 最大池化 # 展平操作 x = x.view(-1, 64 * 7 * 7) # 全连接层 x = F.relu(self.fc1(x)) x = self.fc2(x) return x ``` 上述代码展示了如何创建一个简单的 CNN 模型,其中包含了两个卷积层、最大池化层以及两层全连接层。 --- #### 数据预处理与加载 为了有效地训练 CNN 模型,需要对数据进行标准化和增强处理。可以利用 PyTorch 提供的数据工具完成这些任务。 ```python from torchvision import datasets, transforms from torch.utils.data import DataLoader transform = transforms.Compose([ transforms.ToTensor(), # 将 PIL 图片转换成张量 transforms.Normalize((0.5,), (0.5,)) # 归一化处理 ]) train_dataset = datasets.MNIST(root='./data', train=True, transform=transform, download=True) test_dataset = datasets.MNIST(root='./data', train=False, transform=transform, download=True) train_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=True) test_loader = DataLoader(dataset=test_dataset, batch_size=64, shuffle=False) ``` 这里使用 MNIST 手写数字数据集作为例子,并对其进行必要的变换以适配 CNN 输入需求[^2]。 --- #### 训练模型 训练过程中通常会采用交叉熵损失函数并配合随机梯度下降法或其他优化器调整权重参数。 ```python device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') model = SimpleCNN(num_classes=10).to(device) criterion = nn.CrossEntropyLoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) def train_model(model, criterion, optimizer, train_loader, epochs=10): model.train() for epoch in range(epochs): running_loss = 0.0 correct = 0 total = 0 for images, labels in train_loader: images, labels = images.to(device), labels.to(device) outputs = model(images) loss = criterion(outputs, labels) optimizer.zero_grad() loss.backward() optimizer.step() _, predicted = torch.max(outputs, 1) total += labels.size(0) correct += (predicted == labels).sum().item() running_loss += loss.item() accuracy = 100 * correct / total print(f"Epoch [{epoch+1}/{epochs}], Loss: {running_loss/len(train_loader):.4f}, Accuracy: {accuracy:.2f}%") train_model(model, criterion, optimizer, train_loader, epochs=5) ``` 此部分实现了完整的训练循环逻辑,包括前向传播、计算损失值、反向传播更新权重等环节[^3]。 --- #### 测试模型性能 最后一步是对测试集评估模型表现情况。 ```python def test_model(model, test_loader): model.eval() with torch.no_grad(): correct = 0 total = 0 for images, labels in test_loader: images, labels = images.to(device), labels.to(device) outputs = model(images) _, predicted = torch.max(outputs, 1) total += labels.size(0) correct += (predicted == labels).sum().item() accuracy = 100 * correct / total print(f'Test Accuracy of the Model on Test Images: {accuracy:.2f}%') test_model(model, test_loader) ``` 通过以上方法能够得到最终的分类准确性指标[^4]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值