pytorch使用cuda,调用GPU进行训练

文章介绍了如何在PyTorch中利用CUDA进行GPU训练,包括检查CUDA可用性,将模型、数据和损失函数移到GPU上,以及提供了一个使用CNN训练CIFAR10数据集的示例。通过.to(device)或.cuda()方法可以在GPU和CPU间迁移模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

pytorch使用cuda,调用GPU进行训练

Pytorch允许把在GPU上训练的模型加载到CPU上,也允许把在CPU上训练的模型加载到GPU上。

首先需要判断自己的pytorch是否能够使用GPU计算:

print(torch.cuda.is_available())

如果输出False的话,要重新配置cuda环境,这里就不仔细说明了。

然后,明确什么东西可以使用GPU训练,一般来说包括网络模型、数据(输入、标注)、损失函数,主要有以下两种方法:

方法1:使用.to(device)方法

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net.to(device)
inputs, labels = inputs.to(device), labels.to(device)
loss_fn = loss_fn.to(device)

方法2:使用.cuda()方法

if torch.cuda.is_available():
	net.cuda()
if torch.cuda.is_available():
	inputs, labels = inputs.cuda(), labels.cuda()
if torch.cuda.is_available():
	loss_fn = loss_fn.cuda()

使用方法2调用cuda进行训练的一个案例,方法1同理。

import time

import torch
import torchvision.datasets
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

# from model import *

# 准备数据集
train_data = torchvision.datasets.CIFAR10("./dataset_cifar10/train", train=True,
                                          transform=torchvision.transforms.ToTensor(),
                                          download=True)
test_data = torchvision.datasets.CIFAR10("./dataset_cifar10/test", train=False,
                                         transform=torchvision.transforms.ToTensor(),
                                         download=True)

# 利用DataLoader加载数据集
train_dataloader = DataLoader(train_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)


# 创建网络模型
class Lyon(nn.Module):

    def __init__(self):
        super(Lyon, self).__init__()
        self.model1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024, 64),
            Linear(64, 10)
        )

    def forward(self, x):
        x = self.model1(x)
        return x


lyon = Lyon()
if torch.cuda.is_available():
    lyon = lyon.cuda()

# 损失函数
loss_fn = nn.CrossEntropyLoss()
if torch.cuda.is_available():
    loss_fn = loss_fn.cuda()

# 优化器
learning_rate = 0.01
optimizer = torch.optim.SGD(lyon.parameters(), lr=learning_rate)

# 设置训练网络的一些参数
# 记录训练次数
total_train_step = 0
# 记录训练次数
total_test_step = 0
# 训练轮数
epoch = 10

# 添加tensorboard
writer = SummaryWriter("./logs/train")

start_time = time.time()
for i in range(epoch):
    print("----- 第 {} 轮训练开始 -----".format(i + 1))
    # 训练步骤开始
    lyon.train()  # 可以不写
    for data in train_dataloader:
        imgs, targets = data
        if torch.cuda.is_available():
            imgs = imgs.cuda()
            targets = targets.cuda()
        output = lyon(imgs)
        loss = loss_fn(output, targets)

        # 优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step = total_train_step + 1
        if total_train_step % 100 == 0:
            end_time = time.time()
            print(end_time - start_time)
            print("训练次数:{},Loss:{}".format(total_train_step, loss))
            writer.add_scalar("train_loss", loss.item(), total_train_step)

    # 测试步骤开始
    lyon.eval()  # 评估步骤开始,可以不写
    total_test_loss = 0
    total_accuracy = 0
    with torch.no_grad():
        for data in test_dataloader:
            imgs, targets = data
            if torch.cuda.is_available():
                imgs = imgs.cuda()
                targets = targets.cuda()
            outputs = lyon(imgs)
            loss = loss_fn(outputs, targets)
            accuracy = (outputs.argmax(1) == targets).sum()  # outputs.argmax(1)将输出结果转换为targets的模式
            total_test_loss = total_test_loss + loss.item()
            total_accuracy = total_accuracy + accuracy

    print("整体测试集上的Loss:{}".format(total_test_loss))
    print("整体测试集上的正确率:{}".format(total_accuracy))
    writer.add_scalar("test_loss", total_test_loss, total_test_step)
    total_test_step = total_test_step + 1

    torch.save(lyon, "./train_model/lyon_{}.pth".format(i))
    # 官方推荐模型保存方式
    # torch.save(lyon.state_dict(), "./lyon_{}.pth".format(i))
    print("模型已保存!")

writer.close()
### 如何使用CUDA进行PyTorch模型训练 为了利用GPU加速计算,在PyTorch中启用CUDA支持对于提升模型训练效率至关重要。当环境中存在NVIDIA GPU并且已安装相应的驱动程序以及cuDNN库时,可以通过简单的配置使PyTorch识别并调用这些硬件资源。 #### 检查CUDA可用性和PyTorch版本 在开始之前,确认当前环境下的PyTorch是否能够检测到CUDA设备: ```python import torch print(f"Is CUDA available? {torch.cuda.is_available()}") print(f"Torch Version: {torch.__version__}") # 版本信息有助于排查兼容性问题[^1] ``` 如果`cuda.is_available()`返回True,则表示可以继续下一步操作;否则需先解决相关依赖项缺失的问题。 #### 将张量移动至GPU 创建张量或其他变量对象时,默认情况下它们位于CPU内存空间。要将其迁移到GPU上参与运算,可采用如下方式之一: - **直接指定device参数** ```python tensor_gpu = torch.tensor([1., 2.], device='cuda') ``` - **通过.to方法迁移现有张量** ```python tensor_cpu = torch.randn((3, 4)) tensor_gpu = tensor_cpu.to('cuda') # 或者写成 tensor_cuda = tensor.cpu().to(device=torch.device('cuda')) ``` #### 构建网络结构并将模型加载到GPU 定义好神经网络类之后,实例化该类的对象,并显式指明应将整个模型放置于哪个设备之上: ```python model = MyModel() if torch.cuda.is_available(): model = model.to('cuda') ``` 注意这里同样适用于其他类型的层组件或子模块,只要涉及到具体数值计算的部分都建议尽可能转移到GPU端处理。 #### 数据集准备与DataLoader设置 通常会借助`torch.utils.data.Dataset`和`DataLoader`来管理输入样本流。为了让每次迭代获取的数据批次也能享受到GPU带来的性能增益,可以在构建`DataLoader`实例的时候加入额外选项: ```python from torchvision import datasets, transforms transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,)) ]) train_dataset = datasets.MNIST('./data', train=True, download=True, transform=transform) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True, num_workers=4, pin_memory=True) # 设置pin_memory=True提高传输速度 ``` 其中`num_workers>0`意味着开启多线程读取文件,而`pin_memory=True`则允许页锁定内存页面,从而加快从主机RAM向GPU传递数据的速度。 #### 定义损失函数与优化器 这部分逻辑相对固定不变,只需确保后续涉及梯度更新的操作均发生在目标设备上即可: ```python criterion = nn.CrossEntropyLoss().to('cuda') optimizer = optim.Adam(model.parameters(), lr=learning_rate) ``` #### 开始训练循环 最后进入核心环节——实际的前向传播、反向求导及参数调整过程: ```python for epoch in range(num_epochs): running_loss = 0.0 for i, data in enumerate(train_loader, start=0): inputs, labels = data[0].to('cuda'), data[1].to('cuda') optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() if i % log_interval == (log_interval - 1): print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / log_interval)) running_loss = 0.0 ``` 上述代码片段展示了完整的基于CUDA加速的PyTorch模型训练流程概览。值得注意的是,随着分布式训练场景日益普及,针对多个GPU协同工作的编程模式也逐渐成为研究热点[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值