CNN pytorch 使用GPU算力

NVIDIA的CUDA是指什么?

NVIDIA的CUDA(Compute Unified Device Architecture)是一种并行计算平台和编程模型,旨在利用NVIDIA图形处理器(GPU)的强大并行计算能力。CUDA使开发人员能够使用C语言、C++、Fortran等编程语言来编写能够在GPU上并行执行的程序。

CUDA的主要目标是充分发挥GPU的大规模并行性能,使其不仅用于图形处理,还用于一般的科学计算和其他高性能计算应用。通过CUDA,开发人员可以将计算任务分解成许多小的并行任务,然后在GPU上同时执行这些任务,从而加速整体计算过程。

CUDA包括一个编程模型、一套用于管理GPU资源的API(应用程序接口),以及一种在GPU上执行的并行计算指令集。它已成为广泛用于科学计算、深度学习、图形学等领域的标准工具之一。

CUDA 环境安装(Win10 64位)参考笔记:

1.前提条件:
设备上安装了NVIDIA显卡设备
2.查看显卡版本号:
NVIDIA控制面板->系统信息(左下角)->组件->显卡CUDA驱动的版本号
3.下载安装CUDA :
https://developer.nvidia.com/cuda-toolkit-archive
注:CUDA开发包版本要与显卡CUDA驱动的版本号对应
4.下载安装cuDNN (要与CUDA开发包的版本对应)
https://developer.nvidia.com/cudnn
注:需要注册账号(提交相关问题, 可随意填写)
5. 安装CUDA:
向导默认安装
6.安装cuDNN:
I.打开cuda安装文件夹,默认的强制安装路径为:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\版本号:
II.将解压的cuDNN压缩包内的三个文件夹复制到CUDA安装目录下:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\版本号 \bin,include,lib
III.验证cuDNN是否安装完成:
cd C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\extras\demo_suite
执行: bandwidthTest.exe
控制台显示: Result=pass 表示GPU环境安装成功
注:安装CUDA的图文帮助文档可参考(亲测成功):
https://blog.youkuaiyun.com/qq_38140292/article/details/114157146

CUDA C编程接口官方文档:

https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#compute-capabilities

查看显卡算力:

https://developer.nvidia.com/cuda-gpus#compute
如本人机器:GeForce GTX 1650 Ti > GeForce GTX 16507.5 的计算性能

Pytorch使用CUDA

安装时torchVision与torch版本要对应上,版本对应关系可参考:
https://www.zhihu.com/question/566477739
注意:如果版本没对应上,Pytorch使用CUDA不会起作用,还是会使用CPU的算力

### PyTorch GPU 训练模型示例代码 在使用 PyTorch 进行 GPU 训练时,需要确保模型、输入数据以及目标张量均被移动到 GPU 上。以下是一个完整的示例代码,展示了如何将模型和数据加载到 GPU 并进行训练[^1]。 ```python import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms # 检查是否有可用的GPU device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # 定义一个简单的卷积神经网络 class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1) self.relu = nn.ReLU() self.pool = nn.MaxPool2d(kernel_size=2, stride=2, padding=0) self.fc = nn.Linear(32 * 14 * 14, 10) def forward(self, x): x = self.pool(self.relu(self.conv1(x))) x = x.view(-1, 32 * 14 * 14) x = self.fc(x) return x # 初始化模型并将其移动到GPU model = SimpleCNN().to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001) # 加载MNIST数据集 transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))]) train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True) # 训练模型 for epoch in range(5): # 训练5个epoch model.train() for batch_idx, (data, target) in enumerate(train_loader): # 将数据和目标张量移动到GPU data, target = data.to(device), target.to(device) # 前向传播 output = model(data) loss = criterion(output, target) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() if batch_idx % 100 == 0: print(f"Epoch [{epoch+1}/5], Step [{batch_idx+1}/{len(train_loader)}], Loss: {loss.item():.4f}") ``` ### 注意事项 1. 在训练之前,必须检查设备是否支持 GPU,并通过 `torch.device` 设置设备。 2. 使用 `.to(device)` 方法将模型、输入数据和目标张量移动到指定设备上。 3. 如果需要保存模型,可以使用 `torch.save` 保存模型权重或完整模型[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值