一. 确定硬件配置
本文以部署DeepSeek R1 7B版本为例,以下是DeepSeek关于7B版本给出的安装配置,各位可以根据自己的情况选择对应的版本询问DeepSeek对应的配置要求。

于是我选择阿里云的以下配置:

镜像选择 Alibaba Cloud Linux最新版本,并勾选安装GPU驱动:

存储:

二. 安装Ollama
登陆云主机后,运行以下命令:
curl -fsSL https://ollama.com/install.sh | sh
安装完成显示如下信息:

此时:
curl 127.0.0.1:11434
如果看到输出:
Ollama is running
表示Ollama服务已启动。
如后续要在Docker中安装Open WebUI或者Anything LLM,需要开放Ollama,使得docker中可以访问Ollama,需要修改如下配置:
vi /etc/systemd/system/ollama.service
在Service段增加:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
这个配置太开放了,存在安全隐患。可通过云主机的安全组规则限制端口11434的访问IP为docker 的ip段。
修改配置后可以通过以下命令重启ollama服务。
systemctl restart ollama
或:
systemctl stop ollama
systemctl start ollama
三. 部署DeepSeek R1 7B模型
使用以下命令获取并运行模型
ollama run deepseek-r1:7b
看到以下输出即运行成功:
1959

被折叠的 条评论
为什么被折叠?



