Ollama Docker Compose 项目教程
1. 项目目录结构及介绍
Ollama Docker Compose 项目旨在简化 Ollama 的部署过程,通过 Docker Compose 实现容器化环境下的运行。以下是项目的目录结构及文件介绍:
ollama-docker/
├── .devcontainer/
├── .github/
├── .vscode/
├── src/
├── .dockerignore
├── .gitignore
├── Dockerfile
├── LICENCE.md
├── Modelfile
├── README.md
├── docker-compose-ollama-gpu.yaml
├── docker-compose.yml
├── fly.toml
├── requirements.txt
├── run.bat
├── run.sh
├── setup.sh
.devcontainer/
:包含用于开发容器配置的文件。.github/
:包含 GitHub 使用的配置文件和操作。.vscode/
:包含 Visual Studio Code 项目的配置文件。src/
:项目源代码目录。.dockerignore
:Docker 构建时需要忽略的文件列表。.gitignore
:Git 忽略文件列表。Dockerfile
:定义如何构建 Ollama 的 Docker 镜像。LICENCE.md
:项目许可证文件。Modelfile
:模型配置文件。README.md
:项目自述文件,包含项目介绍和使用说明。docker-compose-ollama-gpu.yaml
:Docker Compose 文件,用于配置 GPU 支持的 Ollama。docker-compose.yml
:Docker Compose 文件,用于配置无 GPU 支持的 Ollama。fly.toml
:用于配置项目部署的文件。requirements.txt
:项目依赖文件,用于安装所需的 Python 包。run.bat
:Windows 系统下启动项目的批处理文件。run.sh
:Linux 系统下启动项目的脚本文件。setup.sh
:项目设置脚本。
2. 项目的启动文件介绍
项目提供了不同的启动文件,以适应不同的操作系统和环境需求:
run.bat
:在 Windows 系统下,通过此批处理文件启动 Docker Compose,运行 Ollama 服务。run.sh
:在 Linux 系统下,通过此脚本启动 Docker Compose,运行 Ollama 服务。
这些启动文件会根据配置文件选择是否启用 GPU 支持。
3. 项目的配置文件介绍
项目包含两个主要的配置文件,分别用于不同的运行环境:
docker-compose-ollama-gpu.yaml
:此配置文件用于配置在支持 GPU 的环境下运行 Ollama。它包含了 NVIDIA Container Toolkit 的配置,以及使用 GPU 的 Docker 服务配置。docker-compose.yml
:此配置文件用于配置在无 GPU 支持的环境下运行 Ollama。它仅包含基本的 Docker 服务配置。
这两个文件都定义了所需服务的启动命令、环境变量、网络配置等,以确保 Ollama 服务能够正确运行。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考