ubuntu22.04安装cuda和pytorch

本台服务器已经安装:

pycharm2024

andaconda3

python3.12

安装cuda前,需要安装nvidia驱动,自行查阅安装流程 

1.先检查nvidia驱动,和能安装的cuda最高版本 

nvidia-smi

 

 cuda最高为12.2

如果你没有更新过显卡驱动,需要更新成为最新版本的显卡驱动。如果已经更新过了就无视。显卡驱动版本决定了你能装的的CUDA最高版本是多少。而CUDA版本又决定了你装的pytorch最高版本是多少。

 安装pytorch,首先要决定你要安装的pytorch版本需要的cuda版本是多少,当然也可以先安装cuda版本在去寻找合适的pytorch版本。 本文采用第二种。

 2.安装CUDA的版本

进入Pytorch:Pytorch  

 

打开pytorch的网站,然后我们打算安装12.1。我们下面将演示安装CUDA12.1的流程。 注意这里选择安装cuda11.8也是完全没有问题呢,假如你的最新驱动最高能安装的cuda版本只有cuda12.0,那么你只能选择安装cuda11.8。

进入cuda网站 

进入CUDA:CUDA  

点击然后进入,选择要下载的类型 

 

进入控制台终端, 输入下面代码

 

 

输入accept

 

将X取消,按空格取消,已经安装过驱动了。这里不需要。然后我们选择install 回车  

 

如果有这种情况, 直接在安装命令后加  “--override”

 

ok安装完成。但要配置一下文件

vim ~/.bashrc

 按”i“进入编辑模式,输入下面代码,再按“:wq”退出

export LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda/extras/CPUTI/lib64
export CUDA_HOME=/usr/local/cuda/bin
export PATH=$PATH:$LD_LIBRARY_PATH:$CUDA_HOME

更新配置文件 

source ~/.bashrc

 最后检查下配置是否正确

nvcc -V

 

配置成功

3.在Pycharm中安装Pytorch 

进入控制台,输入 之前选cuda时候的pytorch代码

 

 

安装过程很慢,最后根据提示输入y就完成了 

### 安装配置 Ollama 对于 Ubuntu 22.04 的离线环境而言,安装并配置 Ollama 需要预先下载所需的所有依赖包以及确保这些软件包之间的兼容性。考虑到网络连接不可用的情况,在准备阶段就要尽可能全面地收集必要的文件。 #### 准备工作 为了实现离线安装,建议先在一个具有互联网访问权限的相同版本系统环境中执行如下操作来获取所需的.deb 文件其他资源: - 更新现有的 APT 缓存 `sudo apt-get update` 并记录下所有即将被安装的包名及其版本号。 - 使用命令行工具如 `apt download package_name` 来单独下载各个目标程序对应的 .deb 文件到指定目录中保存起来以便后续转移至无网设备上使用[^1]。 #### 软件包预处理 针对特定应用比如 Ollama 及其依赖项(例如 Python 库),还需要额外注意它们可能存在的其他形式分发渠道(pip, conda)。如果官方提供了 tarball 或者 wheel 格式的压缩包,则可以直接解压后通过源码编译的方式完成本地构建;而对于 PyPI 上托管的内容则可以利用 pip 下载功能提前准备好 wheels 存档再传入封闭网络里供 offline mode 中调用[^2]。 #### 实际安装过程 当上述准备工作完成后就可以着手于真正的离线设置了: - 将之前搜集好的 deb 包拷贝进入目标机器上的某个临时位置; - 利用 dpkg 命令批量安装已有的二进制包:`sudo dpkg -i *.deb`; - 对于那些由于缺少某些库而导致失败的情形可通过手动解析 Depends 字段得知确切名称进而补充缺失部分直至整个链条完整为止; - 如果涉及到 python packages ,那么就进入到事先存放好 whl files 的路径之下运行 `pip install --no-index --find-links=/path/to/wheelhouse/ somepackage.whl`. ```bash # 批量安装Debian软件包 sudo dpkg -i /tmp/offline_packages/*.deb # 解决未满足的依赖关系 sudo apt-get install -f # 安装Python Wheel文件 pip install --no-index --find-links=/path/to/python_wheels/ ollama.whl ``` #### 后续验证与调试 一旦完成了初步设置之后便应该尝试启动服务看看是否存在任何异常状况,并参照日志信息进一步调整参数直到一切运作正常。特别是关于 CUDA 支持方面的问题,务必确认 GPU 访问无障碍且驱动版本匹配良好以避免类似 torch.cuda.is_available() 返回 False 这样的情况发生[^3].
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值