数据优先、简易环境搭建与数据预处理
1. 安装NVIDIA GPU驱动
安装正确的NVIDIA驱动极为重要。在TensorFlow中使用CUDA是实现诸多功能的关键。NVIDIA对CUDA库的描述为:“CUDA® 是NVIDIA开发的并行计算平台和编程模型,用于在图形处理单元(GPU)上进行通用计算。借助CUDA,开发者能够利用GPU的强大性能大幅加速计算应用程序。”(来源:https://developer.nvidia.com/cuda-zone)
使用CUDA,TensorFlow在处理能力方面能够实现显著的加速。为了实现这一点,我们需要在主机上安装特定类型的GPU和驱动。
可以运行 nvidia-smi 命令来查看系统上安装的驱动版本,示例输出会显示你的GPU、正在运行的进程以及当前安装的驱动版本。
2. 安装Nvidia-Docker
在安装Nvidia-Docker之前,我们需要了解其层级结构,它能让Docker引擎与GPU进行交互。
Docker是一种轻量级的容器技术。Docker容器运行在同一台机器上时,会共享该机器的操作系统内核,启动迅速,占用的计算资源和内存较少。镜像由文件系统层构建而成,并共享公共文件(来源:https://www.docker.com/what-container)。
本质上,Docker允许我们在容器中创建轻量级的虚拟机(VM),可以将所有应用程序放置其中,并确保每次进入该容器时环境都是相同的。Nvidia-Docker更进一步,为Docker容器提供了与GPU交互的适当链接,这是开发环境的关键部分。一旦设置好Nvidia-D
超级会员免费看
订阅专栏 解锁全文
908

被折叠的 条评论
为什么被折叠?



