centos7安装NVIDIA driver,cuda,cudnn,anaconda

本文详细介绍了在CentOS7系统中如何安装NVIDIA显卡驱动、CUDA工具包、cuDNN以及Anaconda的步骤,包括添加ELRepo源、选择并安装对应驱动、禁用nouveau、安装CUDA时避免安装图形驱动、配置环境变量以及安装cuDNN和Anaconda的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

系统版本

系统版本​​​

可能需要:

yum install kernel-devel

yum install kernel-headers

yum install gcc

yum install gcc-c++

 

一、安装英伟达显卡驱动:

ELRepo 源中包含了一系列驱动程序。

添加 ELRepo 源:

sudo rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org

sudo rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm

安装显卡检查程序:    

sudo yum install nvidia-detect

检测显卡型号,并选择对应的驱动:

$ nvidia-detect -v

Probing for supported NVIDIA devices...

[10de:06dd] NVIDIA Corporation GF100GL [Quadro 4000]

This device requires the current 346.47 NVIDIA driver kmod-nvidia

根据 nvidia-detect 的输出信息,可以知道显卡的型号,以及要使用的驱动版本 346.47 。

安装显卡驱动

若驱动版本为 304.xx,则安装 304xx 版本:

sudo yum install nvidia-x11-drv-304xx nvidia-x11-drv-304xx-32bit

若驱动版本为 340.xx,则安装 340xx 版本:

sudo yum install nvidia-x11-drv-340xx nvidia-x11-drv-340xx-32bit

对于大多数比较新的显卡来说,直接安装最新版的驱动即可:

sudo yum install nvidia-x11-drv nvidia-x11-drv-32bit

我这里给得是:

 

### 安装 DeepSeek 和 Qwen 的步骤 #### 准备环境 为了在 CentOS 8 上成功部署 DeepSeek 和 Qwen,需要先配置好 Python 环境以及必要的依赖库。建议使用 Anaconda 或 Miniconda 来管理虚拟环境。 ```bash sudo yum install epel-release sudo yum update sudo yum groupinstall "Development Tools" sudo yum install python3-pip pip3 install --upgrade pip setuptools wheel curl -s https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -o miniconda.sh bash miniconda.sh -b -p $HOME/miniconda source ~/miniconda/etc/profile.d/conda.sh conda init bash ``` #### 配置 GPU 支持 (如果适用) 对于希望利用 NVIDIA 显卡加速推理过程的情况: ```bash distribution=$(. /etc/os-release;echo $ID$VERSION_ID) wget https://developer.download.nvidia.com/compute/cuda/repos/$distribution/x86_64/cuda-$distribution.pin sudo mv cuda-$distribution.pin /etc/yum.repos.d/ sudo dnf config-manager --add-repo=https://developer.download.nvidia.com/compute/cuda/repos/$distribution/x86_64/ sudo rpm --import https://developer.download.nvidia.com/compute/cuda/repos/$distribution/x86_64/7fa2af80.pub sudo dnf clean all sudo dnf -y module disable nvidia-driver sudo dnf -y install cuda nccl export PATH=/usr/local/cuda-11.8/bin${PATH:+:${PATH}} export LD_LIBRARY_PATH=/usr/local/cuda-11.8/lib64\ ${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}} ``` #### 下载并启动 DeepSeek 模型服务 通过 Hugging Face 平台获取预训练好的 DeepSeek R1 Distill Qwen 模型,并设置 API Server 启动命令[^1]。 ```bash git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.git cd DeepSeek-R1-Distill-Qwen-7B nohup python -m vllm.entrypoints.openai.api_server \ --model ./models/DeepSeek-R1-Distill-Qwen-14B \ --served-model-name DeepSeek-R1-Distill-Qwen-14B \ --max-model-len=8192 \ --host 0.0.0.0 \ --port 10040 \ --tensor_parallel_size 2 \ --dtype float16 > model_api_server.log 2>&1 & ``` 此操作会以后台模式运行模型服务器实例,同时指定使用的显存设备编号为 `CUDA_VISIBLE_DEVICES` 变量中的值,在这里设定了第2号和第3号GPU参与计算任务[^2]。 #### 使用 Docker 运行 Ollama 容器内的 DeepSeek 模型 另一种方式是在已经准备好的 Ollama Docker 容器内部执行 DeepSeek 模型的加载与调用[^3]。 ```bash docker pull ollama:latest docker run -d --name ollama ollama:latest docker exec -it ollama ollama run deepseek-r1:1.5b ``` 上述指令完成了从拉取镜像到创建容器再到进入交互式 shell 执行特定版本 DeepSeek 模型的过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值