pytorch GPU版本安装(保姆教程)

ps:要提前安装好Anaconda、pycharm、确保电脑有显卡

GPU安装开始:

1.下载CUDA

CUDA下载:https://developer.nvidia.com/cuda-toolkit-archive

进入官网选择一个电脑支持的版本(可以去pytorch官网看看提供哪些版本)

我刚刚去官网看了最新提供

CUDA 11.3的版本 那么我们就下载11.3的版本

下载好后开始安装   自定义安装  就一直下一步就好了

到这里注意一下就好了

等待完成就OK第一步了

2.下载CUDNN

CUDNN下载:https://developer.nvidia.com/rdp/cudnn-download

这里需要一个英伟达账号 直接注册一个 可以使用QQ邮箱注册

然后下载压缩包  要对应的版本或者高一些的版本

 下载好后解压出来 把解压出来的文件重命名为 cudnn

复制到CUDA的安装路径中

 然后配置环境变量

3.下载pytorch_GPU版本

打开

输入命令

先在Anaconda中建立一个虚拟环境 pytorch_gpu

conda create -n pytorch_gpu python=3.8

激活环境

activate pytorch_gpu

打开pytorch官网

复制命令行到控制台下载 等待一小会就OK

最后验证是否安装成功

在该环境下运行代码

 

import torch

print(torch.__version__)  # 查看torch当前版本号

print(torch.version.cuda)  # 编译当前版本的torch使用的cuda版本号

print(torch.cuda.is_available())  # 查看当前cuda是否可用于当前版本的Torch,如果输出True,则表示可用

 像这样就成功了

### PyTorch GPU 加速教程详解 #### 1. 安装 PyTorch GPU 版本安装 PyTorchGPU 版本前,需确认已正确安装 CUDA 和 cuDNN。对于 Windows 10 系统,推荐按照官方指南完成 CUDA (版本 11.6)安装[^1]。随后通过以下命令安装对应 Python 3.8 的 PyTorch: ```bash pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu116 ``` 此命令会自动下载支持 CUDA 11.6 的 PyTorch 软件包。 --- #### 2. 验证 GPU 是否可用 在成功安装后,可通过如下代码验证当前环境中是否存在可用的 NVIDIA GPU 设备以及其数量: ```python import torch print(f"CUDA Available: {torch.cuda.is_available()}") # 判断是否有可用的GPU设备 print(f"Number of GPUs: {torch.cuda.device_count()}") # 获取GPU的数量 print(f"Current Device Name: {torch.cuda.get_device_name(0)}") # 输出第一个GPU的名字 ``` 如果 `torch.cuda.is_available()` 返回 True,则表明系统能够识别到至少一块支持 CUDA 的显卡。 --- #### 3. 将张量移动至 GPU 上运行 要实现模型或数据在 GPU 上运算,需要将其转移到指定的 GPU 设备上。以下是具体操作方法: ```python device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') # 自动选择CPU/GPU作为计算资源 tensor_cpu = torch.randn(3, 3) tensor_gpu = tensor_cpu.to(device) result = tensor_gpu * 2 # 所有基于该Tensor的操作都会发生在选定的GPU之上 print(result.device) # 应返回 cuda:X 形式的字符串表示所在的具体GPU编号 ``` 上述代码片段展示了如何创建一个随机矩阵并将它迁移到 GPU 中执行乘法运算。 --- #### 4. 使用 DataParallel 实现多 GPU 并行处理 当单个 GPU 性能不足以满足需求时,可以利用多个 GPU 来分担工作负载。PyTorch 提供了一种简单的方式来启用这种功能——`nn.DataParallel` 类型对象封装原始模块实例即可让后者跨不同硬件单元共享参数副本并同步梯度更新过程[^2]: ```python model = YourModelClass() if torch.cuda.device_count() > 1: model = torch.nn.DataParallel(model) # 如果检测到超过一台机器则开启DP模式 model.to(device) outputs = model(inputs.to(device)) # 输入同样也需要被送入相应的装置当中去 ``` 需要注意的是,尽管这种方法易于实施,但在某些情况下可能会带来额外开销;因此建议仅用于简单的场景下测试目的而非生产环境部署方案设计阶段考虑采用更高效的替代品比如分布式训练框架等高级特性。 --- #### 5. 查看 GPU 占用情况 可以通过调用 `nvidia-smi` 命令实时监控各进程对 GPU 显存及其他性能指标的影响程度变化趋势图谱分析报告生成工具辅助决策优化策略调整方向依据实际业务需求灵活定制化解决方案[^3]: ```bash watch -n 1 nvidia-smi ``` 这有助于了解程序运行期间各个 GPU 的利用率和内存消耗状况,从而更好地管理资源分配。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值