配置linux服务器深度学习环境

本文详述了如何配置Linux服务器以搭建深度学习环境,包括安装Linux系统,如Ubuntu或CentOS,安装并配置SSH服务,安装GPU环境(NVIDIA驱动和CUDA10),安装Docker,以及远程登录Docker的步骤。提供了各个阶段的参考资料和具体命令操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.安装linux系统,可以选择ubantu或者centos

ubantu用的是apt-get,centos用的yum来下载安装包

使用软碟通制作系统启动盘,进入bios设置U盘启动,开始重装系统

装完系统后安装ssh服务并开启ssh服务,这样就可以用ssh远程登录到服务器进行操作了

ubantu安装ssh服务:

apt-get update
apt-get install openssh-server

安装好后查看SSH是否启动 
打开”终端窗口”,输入”sudo ps -e |grep ssh“–>回车–>有sshd,说明ssh服务已经启动,如果没有启动,输入”sudo service ssh start“–>回车–>ssh服务就会启动

使用gedit修改配置文件”/etc/ssh/sshd_config” 获取远程ROOT权限 
打开”终端窗口”,输入”sudo gedit /etc/ssh/sshd_config“–>回车–>把配置文件中的”PermitRootLogin without-password“加一个”#”号,把它注释掉–>再增加一句”PermitRootLogin yes“–>保存,修改成功

修改之后重启ssh服务  service ssh restart 

2.安装GPU环境

首先安装NVIDIA显卡驱动,再安装CUDA10

显卡驱动下载地址:https://www.geforce.cn/drivers

### 如何在 Linux 服务器配置深度学习环境 #### 安装 GPU 驱动程序 为了使 GPU 能够被用于加速计算,在安装 CUDA 和 cuDNN 前需先安装兼容的 NVIDIA 显卡驱动。可以通过官方源或 PPA 来获取最新的显卡驱动。 对于 Ubuntu 系统,推荐使用 `ubuntu-drivers` 工具来自动检测并安装最适合系统的 Nvidia 显卡驱动: ```bash sudo ubuntu-drivers autoinstall ``` 完成上述命令后重启计算机以加载新的图形驱动[^1]。 #### 安装 CUDA Toolkit CUDA 是由 NVIDIA 提供的一个平行运算平台和编程模型,它允许开发者利用 GPU 进行通用目的处理。不同版本之间存在依赖差异,因此建议查阅目标框架文档确认所需的具体版本号。 可以从 NVIDIA 的官方网站下载适合操作系统的 CUDA 版本,并按照提示逐步执行安装过程;也可以通过 apt-get 方式简化此流程(适用于某些特定发行版)。值得注意的是,CUDA toolkit 和 nvidia driver 存在版本匹配的要求[^4]。 例如,在基于 Debian/Ubuntu 的系统中,可以这样安装指定版本的 CUDA: ```bash wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin sudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600 sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/7fa2af80.pub sudo add-apt-repository "deb http://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/ /" sudo apt-get update sudo apt-get -y install cuda=11.2.2-1 ``` 以上代码片段展示了如何安装 CUDA 11.2.2 到 Ubuntu 20.04 LTS 中。请注意调整这些指令中的细节以适应实际需求。 #### 安装 cuDNN 库 cuDNN 是针对神经网络设计的高度优化库集合,通常作为插件形式集成至已有的 CUDA 开发环境中。同样地,应该依据所使用的深度学习框架选择合适的 cuDNN 发布版本。 下载完成后解压文件并将其中的内容复制到相应的目录下,比如 `/usr/local/cuda` : ```bash tar xvzf cudnn-<version>-linux-x64-v*-*.tgz sudo cp cuda/include/cudnn*.h /usr/local/cuda/include/ sudo cp -P cuda/lib64/* /usr/local/cuda/lib64/ ``` 最后更新动态链接器缓存以便于运行时找到新加入的共享对象文件: ```bash echo '/usr/local/cuda/lib64' | sudo tee /etc/ld.so.conf.d/nvidia-cuDNN.conf sudo ldconfig ``` 这里假设已经正确设置了 `$PATH` 及其他必要的环境变量指向正确的 CUDA 安装路径[^5]。 #### 设置 Anaconda Python 环境 考虑到不同的项目可能需要独立的工作空间及其各自的包管理策略,强烈建议采用 Conda 或者虚拟env等方式隔离各个应用之间的相互影响。Anaconda 不仅提供了便捷易用的 conda 包管理系统,还自带了许多科学计算领域常用的工具集。 前往清华镜像站点下载页面挑选合适版本的 Anaconda Installer 并保存下来之后,依照常规方法进行本地化部署即可[^3]: ```bash bash ~/Downloads/Anaconda3-*-Linux-x86_64.sh ``` 初始化完毕以后记得激活 base (root) environment ,从而确保后续创建子环境的操作正常工作。 #### 构建 TensorFlow 或 PyTorch 深度学习框架 当所有的前置条件都准备就绪之后就可以着手构建所需的 DL runtime 。无论是 TensorFlow 还是 PyTorch ,都可以借助 pip 或者 conda 实现快速安装。具体来说就是打开终端窗口输入如下所示的一条或多条语句: ##### 对于 TensorFlow : ```bash pip install tensorflow-gpu==2.x.y # 替换 x,y 成具体的次要版本编号 ``` ##### 对于 PyTorch : ```bash conda install pytorch torchvision torchaudio cudatoolkit=<cuda_version> -c pytorch ``` 至此整个设置过程基本结束,不过仍有必要验证一下刚建立起来的新环境能否正常使用 GPU 加速功能。这一步骤可通过编写简单的测试脚本来实现——启动 python 解释器然后尝试导入相应模块并调用其内置函数查看输出结果是否符合预期。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值