目录
ollama架构图
在 Docker 中使用 Ollama 拉取 DeepSeek 模型的步骤如下:
1. 拉取并运行 Ollama 容器
首先,拉取 Ollama 的 Docker 镜像并启动容器。运行以下命令:
bash复制
docker pull ollama/ollama
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
如果需要 GPU 支持,可以使用以下命令:
bash复制
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
2. 进入 Ollama 容器
进入 Ollama 容器,以便执行拉取模型的命令:
bash复制
docker exec -it ollama /bin/sh
3. 拉取 DeepSeek 模型
在容器内部,使用 Ollama 的 pull
命令拉取 DeepSeek 模型。例如,拉取 7B 参数版本的 DeepSeek 模型:
bash复制
ollama pull deepseek-r1:7b
如果需要其他版本(如 14B),可以替换为:
bash复制
ollama pull deepseek-r1:14b
4. 启动模型并测试
拉取完成后,可以通过以下命令启动模型并进行测试:
bash复制
ollama run deepseek-r1:7b
此时,你可以通过命令行与模型进行交互。
注意事项
-
硬件要求:DeepSeek 的 7B 版本需要至少 8GB 内存,而 14B 版本需要至少 16GB 内存。
-
下载速度:模型文件较大,下载速度可能受网络状况影响。如果下载中断,可以重新运行
ollama pull
命令,支持断点续传。 -
持久化数据:通过
-v ollama:/root/.ollama
挂载卷,确保模型数据持久化。
通过以上步骤,你可以在 Docker 容器中成功拉取并运行 DeepSeek 模型。