ubuntu16.04+深度学习框架安装

本文介绍了在Ubuntu16.04虚拟机中安装深度学习框架的过程,包括解决Windows+Ubuntu双系统安装问题,使用VMware安装Ubuntu,更换软件源,安装Anaconda以及配置Caffe和TensorFlow等框架的CPU版本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

AI

折腾n天后,Windows+ubuntu16.04双系统安装宣告失败

实现各大深度学习框架+GPU 版本的伟大梦想就这样无奈失败了,这其中的坑实在多得AI菌吐血啊,各种莫名其妙的问题让你心力交瘁。AI菌表示我是不会放弃的。

但是AI菌想到这样下去不行啊,毕竟要发文章啊。于是AI菌退而求次,在虚拟机中实现这些框架的cpu版本好了。

ubuntu虚拟机的安装

首先是这个软件

59b7040c8d7cc2a67b89aa9792561959.jpeg

作为付费软件,它的强大毋庸置疑。在360软件宝库中就可以下载安装。

在这里AI菌贡献一个序列号:AA702-81D8N-0817Y-75PQT-Q70A4 .

如果你在安装过程中发现序列号不能用(AI菌概不负责售后),那就去自己在网上找找吧,实在不行还有某宝啊。

装好我们的软件后,关于ubuntu的安装,AI菌推荐这篇文章(亲测有效哦):

在VMWare虚拟机中安装Ubuntu 16.04.1 LTS:(http://blog.youkuaiyun.com/iqmae68024/article/details/54772918)

在安装过程中,AI菌遭遇了黑屏的现象,关于这个问题,大家都说是LSP问题。于是AI菌又按着这篇文章

Win10 LSP错误如何修复?:(http://www.xitongzhijia.net/xtjc/20170228/93143.html)

搞定了问题

如果你安装完后重启报错[sda] Assuming drive cache: write through

那么参考这篇文章吧:

ubunt

### 如何在 Linux 服务器上配置深度学习环境 #### 安装 GPU 驱动程序 为了使 GPU 能够被用于加速计算,在安装 CUDA 和 cuDNN 前需先安装兼容的 NVIDIA 显卡驱动。可以通过官方源或 PPA 来获取最新的显卡驱动。 对于 Ubuntu 系统,推荐使用 `ubuntu-drivers` 工具来自动检测并安装最适合系统的 Nvidia 显卡驱动: ```bash sudo ubuntu-drivers autoinstall ``` 完成上述命令后重启计算机以加载新的图形驱动[^1]。 #### 安装 CUDA Toolkit CUDA 是由 NVIDIA 提供的一个平行运算平台和编程模型,它允许开发者利用 GPU 进行通用目的处理。不同版本之间存在依赖差异,因此建议查阅目标框架文档确认所需的具体版本号。 可以从 NVIDIA 的官方网站下载适合操作系统的 CUDA 版本,并按照提示逐步执行安装过程;也可以通过 apt-get 方式简化此流程(适用于某些特定发行版)。值得注意的是,CUDA toolkit 和 nvidia driver 存在版本匹配的要求[^4]。 例如,在基于 Debian/Ubuntu 的系统中,可以这样安装指定版本的 CUDA: ```bash wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin sudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600 sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/7fa2af80.pub sudo add-apt-repository "deb http://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/ /" sudo apt-get update sudo apt-get -y install cuda=11.2.2-1 ``` 以上代码片段展示了如何安装 CUDA 11.2.2 到 Ubuntu 20.04 LTS 中。请注意调整这些指令中的细节以适应实际需求。 #### 安装 cuDNN 库 cuDNN 是针对神经网络设计的高度优化库集合,通常作为插件形式集成至已有的 CUDA 开发环境中。同样地,应该依据所使用的深度学习框架选择合适的 cuDNN 发布版本。 下载完成后解压文件并将其中的内容复制到相应的目录下,比如 `/usr/local/cuda` : ```bash tar xvzf cudnn-<version>-linux-x64-v*-*.tgz sudo cp cuda/include/cudnn*.h /usr/local/cuda/include/ sudo cp -P cuda/lib64/* /usr/local/cuda/lib64/ ``` 最后更新动态链接器缓存以便于运行时找到新加入的共享对象文件: ```bash echo '/usr/local/cuda/lib64' | sudo tee /etc/ld.so.conf.d/nvidia-cuDNN.conf sudo ldconfig ``` 这里假设已经正确设置了 `$PATH` 及其他必要的环境变量指向正确的 CUDA 安装路径[^5]。 #### 设置 Anaconda Python 环境 考虑到不同的项目可能需要独立的工作空间及其各自的包管理策略,强烈建议采用 Conda 或者虚拟env等方式隔离各个应用之间的相互影响。Anaconda 不仅提供了便捷易用的 conda 包管理系统,还自带了许多科学计算领域常用的工具集。 前往清华镜像站点下载页面挑选合适版本的 Anaconda Installer 并保存下来之后,依照常规方法进行本地化部署即可[^3]: ```bash bash ~/Downloads/Anaconda3-*-Linux-x86_64.sh ``` 初始化完毕以后记得激活 base (root) environment ,从而确保后续创建子环境的操作正常工作。 #### 构建 TensorFlow 或 PyTorch 深度学习框架 当所有的前置条件都准备就绪之后就可以着手构建所需的 DL runtime 。无论是 TensorFlow 还是 PyTorch ,都可以借助 pip 或者 conda 实现快速安装。具体来说就是打开终端窗口输入如下所示的一条或多条语句: ##### 对于 TensorFlow : ```bash pip install tensorflow-gpu==2.x.y # 替换 x,y 成具体的次要版本编号 ``` ##### 对于 PyTorch : ```bash conda install pytorch torchvision torchaudio cudatoolkit=<cuda_version> -c pytorch ``` 至此整个设置过程基本结束,不过仍有必要验证一下刚建立起来的新环境能否正常使用 GPU 加速功能。这一步骤可通过编写简单的测试脚本来实现——启动 python 解释器然后尝试导入相应模块并调用其内置函数查看输出结果是否符合预期。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值