环境搭建——CUDA、Python、Pytorch

安装anaconda

创建虚拟环境

conda create -n env_name python==python版本

安装pytorch

在官网中下载:

https://pytorch.org/get-started/previous-versions/

https://pytorch.org/get-started/locally/

测试cuda是否可用

import torch

# 打印设备信息
print("Available devices:")
print(torch.device('cpu'))
print(torch.device('cuda'))
print(torch.device('cuda:1'))

# 检查 CUDA 是否可用
is_cuda_available = torch.cuda.is_available()
print(f"CUDA is available: {is_cuda_available}")

# 获取可用的 GPU 数量
gpu_count = torch.cuda.device_count()
print(f"Number of GPUs available: {gpu_count}")

# 打印每个 GPU 的名称
if is_cuda_available:
    for i in range(gpu_count):
        print(f"GPU {i}: {torch.cuda.get_device_name(i)}")
else:
    print("No CUDA-capable GPU is available.")

:::success
Available devices:

cpu

cuda

cuda:1

CUDA is available: True

Number of GPUs available: 2

GPU 0: NVIDIA GeForce RTX 3090

GPU 1: NVIDIA GeForce RTX 3090

:::

在测试cuda可用之后再去安装依赖库

:::color1
pip install -r requirements.txt

:::

对应关系

### 如何在UNet网络中设置和配置CUDA环境 #### 配置Anaconda环境以支持CUDA 为了使UNet能够利用GPU加速,需先确保已正确安装并配置好CUDA工具包。这通常涉及调整Conda通道至稳定源来获取必要的驱动程序和支持库。 对于国内用户而言,推荐使用清华大学开源软件镜像站作为下载渠道之一,这样可以显著提高安装速度并减少失败几率[^1]: ```bash conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ conda config --set show_channel_urls yes conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/ ``` 上述命令会向`~/.condarc`文件追加指定URL地址以便后续操作更加顺畅高效。 #### 安装PyTorch及相关组件 接着,在创建新的虚拟环境下执行如下指令可完成PyTorch及其依赖项的部署工作;这里特别指定了版本号为保证兼容性的同时也兼顾性能表现: ```bash conda create -n unet python=3.8 conda activate unet conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch pip install -r requirements.txt ``` 最后一行是从项目的根目录读取`requirements.txt`文档中的Python模块列表,并依次调用Pip工具自动解析、下载并安装这些第三方扩展库[^3]。 #### 编写代码设定默认计算设备 最后一步是在编写训练脚本时加入逻辑判断语句用于检测当前系统是否具备有效的NVIDIA GPU硬件设施,若有则优先选用之,反之才考虑采用内置处理器承担运算任务[^4]: ```python import torch device = 'cuda' if torch.cuda.is_available() else 'cpu' print(f"Using {device} device") model.to(device) ``` 这段简单的Python片段展示了如何动态切换处理单元的方式方法——借助于`torch.cuda.is_available()`函数返回布尔值的结果来进行条件分支的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

君逸~~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值