tensorflow cuda nivdia

博客提供了NVIDIA驱动程序、CUDA Toolkit、cuDNN的下载链接,介绍了根据NVIDIA驱动确定CUDA Toolkit版本,再由CUDA Toolkit版本确定cuDNN版本的方法,给出了TensorFlow与CUDA、cuDNN的版本对应关系,还说明了配置cuda toolkit环境变量的步骤。
NVIDIA 驱动程序下载
cuda tookit 版本确定cuDNN版本
CUDA Toolkit
Linux x86_64 Driver Version
Windows x86_64 Driver Version
CUDA 10.1.105
>= 418.39
>= 418.96
CUDA 10.0.130
>= 410.48
>= 411.31
CUDA 9.2 (9.2.148 Update 1)
>= 396.37
>= 398.26
CUDA 9.2 (9.2.88)
>= 396.26
>= 397.44
CUDA 9.1 (9.1.85)
>= 390.46
>= 391.29
CUDA 9.0 (9.0.76)
>= 384.81
>= 385.54
CUDA 8.0 (8.0.61 GA2)
>= 375.26
>= 376.51
CUDA 8.0 (8.0.44)
>= 367.48
>= 369.30
CUDA 7.5 (7.5.16)
>= 352.31
>= 353.66
CUDA 7.0 (7.0.28)
>= 346.46
>= 347.62
 
CUDA Toolkit Download
 
Ubuntu 18.10(nvdia 418.56->cuda toolkit 10.1->cuDNN 7.5.0)
(nvidoa 390->cuda8.0->cuDNN6.0)
cuDNN Archive
 
 
rope for spyder3
 
tensorflow与cuda cuDNN版本对应关系(在网页最下部)
cuda9=>1.5~1.12(XLA)
cuda8=>1.0~1.4
1.13.1=>cuda10.0=>cuDNN7.5
版本
Python 版本
编译器
编译工具
cuDNN
CUDA
tensorflow_gpu-1.13.0
2.7、3.3-3.6
GCC 4.8
Bazel 0.19.2
7.4
10.0
tf1.4-gpu=>cuda8.0=>cuDNN6
tensorflow_gpu-1.4.0
2.7、3.3-3.6
GCC 4.8
Bazel 0.5.4
6
8
tensorflow-gpu 1.4.0
 
配置cuda toolkit环境变量
(a)vim ~/.bashrc
(b)添加如下行,用于添加cuda bin的路径到环境变量PATH
export PATH=$PATH:/usr/local/cuda/bin
(c)添加如下行,用于添加cuda/lib和cuda/lib64路径到环境变量LD_LIBRARY_PATH
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib:/usr/local/cuda/lib64
(d)使配置生效
source ~/.bashrc

转载于:https://www.cnblogs.com/yanzisoft/p/10800778.html

### TensorFlow CUDA 加速配置指南 为了使 TensorFlow 能够利用 GPU 的计算能力,需要正确配置 CUDA 和 cuDNN 支持。以下是关于如何设置 TensorFlow 使用 CUDA 加速的关键要点: #### 配置环境需求 在开始之前,需确认系统满足以下条件: - 安装支持 CUDA 的 NVIDIA 显卡驱动程序版本[^3]。 - 下载并安装对应版本的 CUDA Toolkit[^4]。 - 安装与 CUDA 版本兼容的 cuDNN 库。 这些组件共同作用于优化深度学习框架性能,尤其是对于大规模矩阵运算的支持。 #### 更新项目文件以启用 CUDA 构建自定义化 当向现有应用程序添加 CUDA 功能时,Visual Studio 或其他 IDE 中的相关项目文件应更新为包含必要的 CUDA 编译选项和路径设定。这可以通过两种方法实现:一是手动编辑 `.vcxproj` 文件;二是通过插件自动完成构建规则集成。 #### 设置 TensorFlow 后端通信库 如果计划在一个多节点或多 GPU 系统上部署模型训练,则可以考虑采用 NVIDIA 提供的 Collective Communications Library (NCCL),它已被整合到 PyTorch 的 `torch.distributed` 模块中作为后端之一,并提供了广播 (`broadcast`)、全规约 (`all_reduce`) 及更多高效算法实现[^1]。尽管此处讨论的是 PyTorch 场景下的应用案例,但在 TensorFlow 上也有类似的分布式策略可用。 需要注意的是,虽然上述提及的内容主要围绕特定技术栈展开说明,但对于任何希望充分利用硬件资源来提升机器学习工作负载效率的人来说都是通用原则。 ```bash # Example command to check installed versions of tensorflow-gpu, cuda and cudnn. pip show tensorflow-gpu nvcc --version cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 ``` 以上脚本可以帮助验证当前环境中各软件包的状态是否匹配官方推荐组合。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值