Centos7.6 快速部署 DeepSeek
一、安装Ollama
文章目录
前言
Ollama 是一个强大的开源工具,旨在帮助用户在本地运行、管理和部署大型语言模型(LLMs,Large Language Models)。它简化了 LLMs 的安装、配置和运行流程,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。
方案一:执行linux命令
Linux下载安装命令
curl -fsSL https://ollama.com/install.sh | sh
Ollama工具是在github上进行下载,可能会存在失败情况,失败后,可再次执行命令重试,也可以采用方案二进行安装。
方案二:下载Ollama安装包安装
下载安装包
wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama-linux-amd64.tgz
解压安装包
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
增加执行权限,创建Ollama用户
sudo chmod +x /usr/bin/ollama sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
创建ollama.service
cat << EOF > /etc/systemd/system/ollama.service [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 [Install] WantedBy=default.target EOF
重新加载配置文件
sudo systemctl daemon-reload
配置开机自启
sudo systemctl enable ollama
启动 ollama
sudo systemctl start ollama
二、下载并运行deepseek-r1的1.5b
借助 ollama 工具来部署 Deepseek 大模型,以下为您提供两种方案:方案一通过ollama命令拉取 deepseek-r1:1.5b,模型版本与社区版本一致,但模型拉取时间较长;方案二通过下载已备份在OBS中的模型文件进行部署,下载速度较快.
方案一:使用ollama拉取 deepseek-r1:1.5b ,模型版本与社区一致,但模型拉取时间较长,请耐心等待。
拉取模型
ollama pull deepseek-r1:1.5b
启动模型
ollama run deepseek-r1:1.5b
方案二:从OBS下载ollama模型文件并运行
下载模型文件
wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama_deepseek_r1_1.5b.tar.gz
解压模型文件
sudo tar -C /usr/share/ollama/.ollama/models -xzf ollama_deepseek_r1_1.5b.tar.gz
配置模型文件
cd /usr/share/ollama/.ollama/models mv ./deepseek/sha256* ./blobs mkdir -p ./manifests/registry.ollama.ai/library/deepseek-r1 mv ./deepseek/1.5b ./manifests/registry.ollama.ai/library/deepseek-r1 rm -rf deepseek/
查看模型列表
ollama list
运行deepseek
ollama run deepseek-r1:1.5b