CUDA、Pytorch、Pycharm的安装与配置

一、CUDA安装

1.检查英伟达驱动支持的最高CUDA版本

cmd中输出以下命令查询最高支持的CUDA版本

NVIDIA-smi

在这里插入图片描述
我的CUDA Driver版本就是11.6,表示的是驱动所能支持的最大运行API版本就是11.6。我如果要安装CUDA Runtime Version(运行版本),要保证CUDA Driver 版本 >= CUDA Runtime 版本,也就是11.6及以前的。



二、Pytorch的安装与环境配置

1.选择是下载CPU版本还是GPU版本

①如果是小任务,用CPU版本。
②如果是大的深度学习训练模型,用GPU版本。且必须要有英伟达独立显卡才能使用GPU版本,仅有集成显卡或其他品牌独立显卡智能使用CPU版本。


1.查看自己的GPU
任务管理器→性能
在这里插入图片描述


2.上Pytorch官网找到安装命令

https://pytorch.org/get-started/locally/

在这里插入图片描述


3.运行指令

注意,先创建并激活虚拟环境

详见本文,Anaconda的安装与环境设置:https://blog.youkuaiyun.com/Edward1027/article/details/142703627


(1)CPU版本

1.直接从国外下载

conda install pytorch torchvision torchaudio cpuonly -c pytorch

2.国内镜像加速地址

conda install pytorch torchvision torchaudio cpuonly -c 镜像地址

(2)GPU版本

命令有两种选择:
1.选择一:直接从 conda 源中安装指定版本的 cudatoolkit,而不通过 NVIDIA 渠道。比如PPT上是安装的GPU版本10.2

conda install pytorch torchvision cudatoolkit=10.2

2.选择二:官网命令

conda install pytorch torchvision torchaudio pytorch-cuda=11.6 -c pytorch -c nvidia

①pytorch:深度学习库
②torchvision:计算机视觉库
③torchaudio:音频处理库

在这里插入图片描述


4.验证

1.CUDA版本检查

nvcc --version    (或 nvcc -V)

2.torch库检查
虚拟环境下,输入python,进入python环境

import torch               #不报错
import torchvision         #不报错
torch.cuda.is_available()  #返回值为True,说明Pytorch安装成功
exit()					   #退出

5.安装其他所需模块

注意关闭梯子等代理


(0)安装torch

pip install torch

如果太慢,可以使用国内清华源镜像

pip install torch -i https://pypi.tuna.tsinghua.edu.cn/simple

(1)安装Matplotlib

pip install matplotlib

在这里插入图片描述


(2)安装 pillow(可能anaconda已经给安装了)

pip install pillow

在这里插入图片描述


(3)安装opencv

pip install opencv-python

在这里插入图片描述


(4)安装sklearn

pip install scikit-learn

在这里插入图片描述


(5)安装scikit-image

pip install scikit-image

(6)安装einops

pip install einops

在这里插入图片描述



三、Pycharm的下载与激活

1.上jerbrains官网下载Pycharm:https://www.jetbrains.com.cn/

2.激活
(1)激活码 or 脚本激活工具
(2)在校生可以用教育邮箱,在官网免费注册,包括各种IDE、py专业版、adobe、matlab
在这里插入图片描述

### 如何在 PyCharm 中设置配置 CUDA 开发环境 #### 创建 Anaconda 虚拟环境 为了确保开发环境的一致性隔离性,建议使用 Anaconda 来管理 Python 其他依赖项。通过 Anaconda Prompt 执行如下命令来创建一个新的虚拟环境: ```bash conda create -n pytorch_cuda_env python=3.9 ``` 这会建立一个名为 `pytorch_cuda_env` 的新环境,并指定 Python 版本为 3.9。 激活该环境以便后续操作都在此环境下进行: ```bash conda activate pytorch_cuda_env ``` #### 安装必要的库支持工具 一旦进入了目标环境,则可以通过 Conda 渠道安装支持 GPU 加速的 PyTorch 及其相关组件: ```bash conda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c pytorch -c nvidia ``` 这条指令不仅安装PyTorch 库本身,还包括了针对特定版本 CUDA (此处为 12.4) 的优化支持[^3]。 #### 配置 PyCharm 使用自定义解释器 启动 PyCharm 后,在项目设置中选择合适的 Python 解释器非常重要。具体来说就是让 IDE 认识到刚才创建好的带有 CUDA 支持的 Anaconda 环境作为默认解析程序。通常可以在 "File -> Settings -> Project: your_project_name -> Python Interpreter" 下完成这项工作。点击右上角齿轮图标旁边的加号 (+),然后选择 “Add”,再挑选刚刚创建的那个基于 Anaconda 的环境路径即可[^4]。 #### 测试 CUDA 是否正常工作 最后一步是要验证整个流程是否成功以及能否正常使用 GPU 进行计算。编写一段简单的测试代码可以帮助确认这一点: ```python import torch if __name__ == "__main__": device = 'cuda' if torch.cuda.is_available() else 'cpu' print(f'This machine uses {device} for computations.') # Create a tensor on the selected device and perform an operation. x = torch.rand(5, 5).to(device) y = x @ x.T # Matrix multiplication example print(y.cpu()) # Move result back to CPU before printing it out. ``` 这段脚本首先检查是否有可用的 CUDA 设备;如果有就利用它来进行矩阵运算并打印结果。如果一切顺利的话,应该能看到输出表明正在使用的设备是 `cuda` 并且能够看到具体的数值结果[^1]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员爱德华

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值