Windows下深度学习环境CUDA10.1和CUDA10.0共存

        前两天无意看到一篇论文《EISEN: A PYTHON PACKAGE FOR SOLID DEEP LEARNING》,介绍了一个基于Pytorch的医学图像处理库,正好和所研究的内容有关,既然有人已经造好了轮子,那不是很好吗,于是找到官方GitHub]官网开始安装,将遇到的坑记录一下:

      我当前的系统状况如下:硬件Windows10+2080Ti,cuda10.0,cudnn7.3,已经安装了pytorch1.1-GPU,TensorFlow1.13-GPU和Keras-2.2.4-GPU,PaddlePaddle0-GPU。看了github上该库需要pytorch1.4支持,上Pytorch官网去看,1.4版本需要cuda10.1支持,看了网上有些说需要卸载之前装的cuda10.0,然后再去安装cuda10.1,由于我这些虚环境里面已经装了很多库,担心更换后导致用不了,所以采用了以下方法顺利安装:

  • 在NVIDIA官网下载显卡的最新驱动并安装,貌似不更新驱动后面的步骤不行。
  • 建立conda虚环境,在虚环境中使用`conda install pytorch torchvision cudatoolkit=10.1 -c pytorch`安装Pytorch1.4-GPU,不出意外的话会因为网络太慢中断,但会提示下载pytorch-1.4.0-py3.6_cuda101_cudnn7_0.tarcudatoolkit-10.1.243-h74a9793_0.tar的链接,在IDM中复制链接下载很快,本地安装用如下命令
conda install --use-local pytorch-1.4.0-py3.6_cuda101_cudnn7_0.tar

conda install --use-local cudatoolkit-10.1.243-h74a9793_0.tar

这样只是在虚环境中变动了cuda版本,没有影响到其他虚环境。安装完毕后不会影响其他虚环境。

在不同的虚环境中试了一下,一切OK,可以放心了。

两个cuda版本和谐共存,Conda环境管理真的是好用。

  • 安装eisen,参照官网指令即可
pip install --upgrade eisen

接下来就是好好研究这个库如何用在CT、X光片上了

### 安装管理多个 CUDA 版本 为了在同一台机器上安装管理多个 CUDA 版本,可以采取以下方法来确保不同版本的 CUDA 可以共存并且方便切换。 #### 使用独立目录安装 CUDA 每种 CUDA 的安装应放置于独立路径下,而不是默认位置 `/usr/local/cuda`。这可以通过指定自定义前缀完成,在解压或通过运行文件安装时提供特定的目标文件夹作为安装路径[^2]。 例如,对于 CUDA 10.0 CUDA 10.1: ```bash sudo bash cuda_10.0.130_410.48_linux.run --installpath=/opt/cuda/10.0/ sudo bash cuda_10.1.243_418.87.00_linux.run --installpath=/opt/cuda/10.1/ ``` #### 修改环境变量脚本 创建针对各个 CUDA 版本的不同 shell 脚本来设置 `PATH` `LD_LIBRARY_PATH` 环境变量。这样可以根据需求加载相应的 CUDA 版本。 假设已将两个版本分别安装到了 `/opt/cuda/10.0` `/opt/cuda/10.1` 下,则可编写如下脚本用于激活对应版本: ```bash # activate_cuda_10.0.sh export PATH=/opt/cuda/10.0/bin${PATH:+:${PATH}} export LD_LIBRARY_PATH=/opt/cuda/10.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}} # activate_cuda_10.1.sh export PATH=/opt/cuda/10.1/bin${PATH:+:${PATH}} export LD_LIBRARY_PATH=/opt/cuda/10.1/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}} ``` 每次需要切换 CUDA 版本时只需执行相应脚本即可生效当前终端会话中的更改[^3]。 #### 利用容器化技术隔离开发环境 另一种有效的方式是利用 Docker 或 Singularity 这样的容器平台构建包含所需软件栈(包括特定版本的 CUDA TensorFlow)在内的镜像。这种方法不仅能够解决依赖冲突问题,还提供了更好的移植性安全性[^4]。 ```dockerfile FROM nvidia/cuda:10.0-base RUN apt-get update && \ apt-get install -y python3-pip && \ pip3 install tensorflow-gpu==1.15.0 ``` 上述 Dockerfile 文件描述了一种基于 CUDA 10.0 并安装 TensorFlow GPU 支持版的具体实例。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值