目录
一、前言
Ollama 是一款开源工具,允许用户在本地便捷地运行多种大型开源模型,如 DeepSeek、ChatGLM、Llama 等。通过 Docker Compose,我们可以快速部署 Ollama 服务,并结合其他工具(如 Dify 或 Open-WebUI)构建强大的 AI 应用。
二、安装 Docker 和 Docker Compose
在开始之前,请确保你的系统已安装 Docker 和 Docker Compose。如果尚未安装,请访问以下链接进行安装:
三、创建 docker-compose.yml 文件
在你的工作目录中创建一个 docker-compose.yml 文件,并根据以下内容进行配置:
services:
ollama:
image: ollama/ollama:latest # 使用最新版本
container_name: ollama
volumes:
- ./ollama:/root/.ollama # 持久化数据
ports:
- "0.0.0.0:11434:11434" # 映射 Ollama 服务端口
restart: always # 自动重启容器
deploy:
resources:
reservations:
devices:
- driver: nvidia
capabilities: ["gpu"]
count: all # 如果需要 GPU 支持,取消注释此部分[^166^]
注意:如果你的机器不支持 GPU 或不需要 GPU 加速,可以删除 deploy 部分。
四、启动 Ollama 服务
在包含 docker-compose.yml 文件的目录中运行以下命令启动 Ollama 服务:
docker-compose up -d
运行完成后,Ollama 服务将启动并监听 11434 端口。
五、验证 Ollama 服务
通过以下命令验证 Ollama 是否正常运行:
curl http://localhost:11434
如果返回 Ollama 的欢迎信息,则说明服务已成功启动。
六、运行模型
在 Ollama 容器中运行模型(如 DeepSeek-R1):
docker exec -it ollama ollama run deepseek-r1:1.5b
这将启动 DeepSeek-R1 模型,并允许你通过命令行与模型交互。
七、可选:部署 Open-WebUI
为了更方便地与模型交互,可以部署 Open-WebUI 提供 Web 界面。在 docker-compose.yml 文件中添加以下内容:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080" # 映射 WebUI 端口
environment:
- OLLAMA_BASE_URL=http://ollama:11434 # 配置 Ollama 服务地址
volumes:
- ./open-webui:/app/backend/data # 持久化数据
restart: always
services:
ollama:
image: ollama/ollama:latest # 使用最新版本
container_name: ollama
volumes:
- ./ollama:/root/.ollama # 持久化数据
ports:
- "0.0.0.0:11434:11434" # 映射 Ollama 服务端口
restart: always # 自动重启容器
deploy:
resources:
reservations:
devices:
- driver: nvidia
capabilities: ["gpu"]
count: all # 如果需要 GPU 支持,取消注释此部分[^166^]
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080" # 映射 WebUI 端口
environment:
- OLLAMA_BASE_URL=http://127.0.0.1:11434 # 配置 Ollama 服务地址
volumes:
- D:\Ollama\open-webui:/app/backend/data # 持久化数据
restart: always
再次运行以下命令启动所有服务:
docker-compose up -d
高版本用
docker compose up -d
访问 http://localhost:3000,即可通过 Web 界面与模型交互。
八、注意事项
-
GPU 支持:如果需要 GPU 加速,请确保安装了 NVIDIA 驱动和 Docker 的 GPU 支持。
-
持久化数据:通过挂载卷,确保模型数据和配置文件持久化。
-
网络配置:如果 Ollama 和 WebUI 部署在不同机器上,请确保网络配置正确。
九、总结
通过 Docker Compose,我们可以快速部署 Ollama 服务,并结合 Open-WebUI 提供更便捷的交互体验。希望本文能帮助你顺利搭建本地 AI 模型服务。
如果遇到问题,建议参考 Ollama 官方文档或社区支持。
另外优秀的博客:

被折叠的 条评论
为什么被折叠?



