CNN 使用GPU训练模型

文章讲述了如何在CNN参数调优过程中,通过支持CPU或GPU算力类型,减少CPU压力,并提供了使用CUDA和GPU环境的代码示例。作者还展示了如何构建和训练一个QuadrantClassifier模型,以及如何通过数据生成器生成训练和验证数据。

CPU压力过大的问题:

前面分析 CNN参数调优 时,
程序占用CPU资源过大,如下图(不同设备可能不同):
在这里插入图片描述

尝试代码进行如下优化:

1.使程序能同时支持CPU或GPU算力类型
2.使用GPU环境能减少CPU的压力

详细代码如下:

"""
CNN CUDA(统一计算设备架构,是由NVIDIA推出的通用并行计算架构)
"""
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset
import numpy as np
from tqdm import tqdm

# CUDA环境是否存在(如果不存在就使用CPU环境)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# 数据生成器
class DataGenerator(object):
    def __init__(self):
        super(DataGenerator, self).__init__()
        self.trainData = []
        self.trainLabels = []
        self.valData = []
        self.valLabels = []

    # 检查tx,ty坐标象限分类
    def check_quadrant(self, tx, ty):
        if (tx > 0) and (ty > 0):
            return 0  # 第一象限
        if (tx < 0) and (ty > 0):
            return 1  # 第二象限
        if (tx < 0) and (ty < 0):
            return 2  # 第三象限
        if (tx > 0) and (ty < 0):
            return 3  # 第四象限
        # 浮点数比较
        if (abs(tx) > 0) and (abs(ty) < 0.000001):
            return 4  # x轴
        # 浮点数比较
        if (abs(tx) < 0.000001) and (abs(ty) > 0):
            return 5  # y轴
        return 6  # 原点

    # 随机整数
    def random_int(self, low, high):
        return np.random.randint(low, high)

    # 特殊值数据
    def random_special_point(self, index, count, low, high):
        perCnt = count // 3
        if index < perCnt:
            tx = 0
            ty = 0
            tl = self.check_quadrant(tx, ty)
        elif index < perCnt * 2:
            tx = 0
            ty = self.random_int(low, high)
            tl = self.check_quadrant(tx, ty)
        else:
            tx = self.random_int(low, high)
            ty = 0
            tl = self.check_quadrant(tx, ty)
        return tx, ty, tl

    # 随机生成训练和验证数据
    # train(low, high, count)
    # val(low, high, count)
    def generateData(self, train: tuple[int, int, int], val: tuple[int, int, int]
### PyTorch GPU 训练模型示例代码 在使用 PyTorch 进行 GPU 训练时,需要确保模型、输入数据以及目标张量均被移动到 GPU 上。以下是一个完整的示例代码,展示了如何将模型和数据加载到 GPU 并进行训练[^1]。 ```python import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms # 检查是否有可用的GPU device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # 定义一个简单的卷积神经网络 class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1) self.relu = nn.ReLU() self.pool = nn.MaxPool2d(kernel_size=2, stride=2, padding=0) self.fc = nn.Linear(32 * 14 * 14, 10) def forward(self, x): x = self.pool(self.relu(self.conv1(x))) x = x.view(-1, 32 * 14 * 14) x = self.fc(x) return x # 初始化模型并将其移动到GPU model = SimpleCNN().to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001) # 加载MNIST数据集 transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))]) train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True) # 训练模型 for epoch in range(5): # 训练5个epoch model.train() for batch_idx, (data, target) in enumerate(train_loader): # 将数据和目标张量移动到GPU data, target = data.to(device), target.to(device) # 前向传播 output = model(data) loss = criterion(output, target) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() if batch_idx % 100 == 0: print(f"Epoch [{epoch+1}/5], Step [{batch_idx+1}/{len(train_loader)}], Loss: {loss.item():.4f}") ``` ### 注意事项 1. 在训练之前,必须检查设备是否支持 GPU,并通过 `torch.device` 设置设备。 2. 使用 `.to(device)` 方法将模型、输入数据和目标张量移动到指定设备上。 3. 如果需要保存模型,可以使用 `torch.save` 保存模型权重或完整模型[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值