1-5 Dify本地私有化部署—Ollama部署

目录

1、Ollama 简介

2、下载 Ollama

3、安装 Ollama

4、环境变量配置

4.1、OLLAMA_MODELS 环境变量配置

4.2、OLLAMA_HOST 环境变量配置

5、运行 Ollama

6、核心操作命令

6.1 运行模型

6.2 Ollama 公网地址

6.3 核心操作命令


1、Ollama 简介

Ollama 是一个开源的大语言模型(LLM)本地化部署与管理平台,核心目标是简化私有化模型部署流程。其主要特点包括:

  1. 私有化部署

    • 完全离线运行,无需网络连接,保障数据隐私安全(如企业敏感文档、医疗数据)。

  2. 多模型支持

    • 支持通义千问(Qwen)、小羊驼系列(Alpaca)、DeepSeek 等 1700+ 预训练模型,涵盖文本生成、代码补全、多模态任务等。

  3. 极简操作

    • 开发者通过命令行即可管理模型:

      • ollama run qwen:运行通义千问模型。

      • ollama list:查看已安装模型。

  4. 开放生态

    • 兼容 OpenAI API 接口,支持集成 Python、SpringAI 等开发框架。

2、下载 Ollama

访问 Ollama 官方主页:Ollama。支持 macOS, Linux 和 Windows 系统,点击下载按钮获取 OllamaSetup.exe 安装程序。


3、安装 Ollama

双击安装文件,点击「Install」开始安装。目前的 Ollama 默认安装路径为 C:\Users\Administrator\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。

安装完成后,会在电脑上出现 Ollama 图标。可以不用先启动 Ollama。

4、环境变量配置

4.1、OLLAMA_MODELS 环境变量配置

Ollama 默认把模型下载到 C 盘,如果想更换模型下载位置,可以新增环境变量 OLLAMA_MODELS,设置为模型下载的路径。建议将模型存储在其他盘以避免影响电脑运行速度。

  • 操作步骤

    • 打开【系统环境变量】。

    • 新建一个系统变量 OLLAMA_MODELS,并设置其值(路径)为 D:\sys\Ollama\models

4.2、OLLAMA_HOST 环境变量配置

OLLAMA_HOST 是 Ollama 的核心环境变量之一,主要用于控制 Ollama 服务的网络访问范围和监听地址,直接影响服务的可见性与连接方式。

  • 操作步骤

    • 打开【系统环境变量】。

    • 新建一个系统变量 OLLAMA_HOST,并设置其值为 0.0.0.0。这样可以开放所有网络接口,允许局域网内其他设备通过 IP 地址访问 Ollama 服务。

启动 Ollama 后,在右键图标中点击「Settings」,确认环境变量已配置成功。

5、运行 Ollama

将上述更改的环境变量保存后,在【开始】菜单中找到并重新启动 Ollama。或者在命令提示符(cmd)中,导航到 ollama.exe 的所在位置,并执行以下命令:

cd C:\Users\Administrator\AppData\Local\Programs\Ollama

然后运行 Ollama。

6、核心操作命令

6.1 运行模型

命令格式

ollama run <模型名称>[:<版本>]

示例

$ ollama run deepseek-r1:7b
$ ollama run qwen2.5:7b
$ ollama run qwen2.5:14b
pulling manifest
pulling 2049f5674b1e: 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████ ▏ 9.0 GB/9.0 GB   11 MB/s      0s
pulling 66b9ea09bd5b: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████▏   68 B
pulling eb4402837c78: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████▏ 1.5 KB
pulling 832dd9e00a68: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████▏  11 KB
pulling db59b814cab7: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████▏  488 B
verifying sha256 digest
writing manifest
success
  • 功能:运行指定版本的 DeepSeek-R1 模型(7B 参数版本)。

  • 首次执行:首次执行该命令时,Ollama 会从官方模型库下载模型。

6.2 Ollama 公网地址

默认端口为 11434,访问地址为:

http://localhost:11434/
  • 功能:在浏览器中访问上述地址,即可看到 Ollama 正在运行的模型,并通过 Web 界面与模型进行交互。

6.3 核心操作命令

列出已安装模型

$ ollama list
​
NAME              ID              SIZE      MODIFIED
qwen2.5:7b        845dbda0ea48    4.7 GB    13 days ago
deepseek-r1:7b    755ced02ce7b    4.7 GB    2 weeks ago
qwen2.5:14b       7cdf5a0187d5    9.0 GB    2 minutes ago
​
$ http://localhost:11434/v1/models
  • 功能‌:列出当前已安装的所有模型及其版本。

删除模型

ollama rm <模型名称>[:<版本>]
​
eg:ollama rm qwen2.5:14b
  • 功能‌:删除指定的模型及其版本,释放存储空间。

查看帮助信息

ollama --help
  • 功能‌:显示 Ollama 的帮助信息,包括所有可用命令及其简要说明。

<think>好的,用户的问题是关于如何在本地使用Docker Desktop进行vLLM和Dify私有化部署。首先,我需要回忆一下Docker的基本操作以及Dify和vLLM的相关知识。 根据用户提供的引用内容,特别是引用[2]和[3],Dify部署涉及Docker环境的配置,包括下载源码、运行Docker容器以及设置管理员账号。同时,用户还想整合vLLM,这可能涉及到模型服务的配置。 首先,我需要确认Dify部署步骤。引用[3]提到需要克隆仓库、复制.env文件并运行docker compose。这可能包括配置环境变量,比如模型供应商的设置。接下来,vLLM的部署通常也需要Docker,可能需要单独拉取镜像并运行容器,暴露API端口供Dify调用。 用户的环境配置需要安装Docker Desktop,确保系统满足要求,尤其是WSL在Windows下的正确配置。然后,部署Dify时要注意.env文件的配置,可能需要调整模型供应商的端点指向本地的vLLM服务。 另外,引用[2]中提到了ollama的安装和模型下载,但用户的问题是关于vLLM的,所以可能需要替换这部分内容。vLLM的Docker镜像可能需要从特定仓库拉取,并配置模型路径或参数。 在整合Dify和vLLM时,需要在Dify的管理界面中添加自定义模型供应商,输入vLLM的API地址。可能还需要处理CORS或网络问题,确保两个容器能够通信。 用户可能遇到的问题包括Docker compose的版本兼容性、端口冲突、环境变量配置错误,以及模型加载失败等。需要指导用户如何检查日志,调试问题。 最后,生成相关问题时要覆盖常见问题,如性能优化、配置模型路径、日志调试和网络设置等。</think>### Docker Desktop与vLLM及Dify本地私有化部署教程 --- #### **一、本地环境准备** 1. **安装Docker Desktop** - 访问[Docker官网](https://www.docker.com/products/docker-desktop/)下载并安装最新版本 - Windows系统需启用WSL2支持(若安装时提示*WSL update failed*,需手动更新WSL内核)[^2] - 配置国内镜像加速(如阿里云镜像源)以提升拉取速度: ```bash { "registry-mirrors": ["https://<your-id>.mirror.aliyuncs.com"] } ``` 2. **验证Docker环境** 命令行执行: ```bash docker run hello-world ``` 若输出`Hello from Docker!`表示安装成功。 --- #### **二、部署vLLM推理服务** 1. **拉取vLLM镜像** ```bash docker pull nvidia/cuda:12.1.0-base-ubuntu22.04 # 基础镜像 docker pull vllm/vllm:latest # 或指定版本 ``` 2. **启动vLLM容器** ```bash docker run -d --gpus all \ -p 8000:8000 \ -v /path/to/models:/models \ vllm/vllm:latest \ --model /models/llama-2-7b \ --tensor-parallel-size 1 ``` - `--gpus all`:启用GPU加速(需NVIDIA驱动) - `-v`:挂载本地模型目录(如Llama-2需提前下载) - 验证服务:访问`http://localhost:8000/docs`查看API文档 --- #### **三、部署Dify应用** 1. **获取Dify源码** ```bash git clone https://github.com/langgenius/dify.git cd dify/docker ``` 2. **配置环境变量** ```bash cp .env.example .env # 修改.env中以下参数: MODEL_PROVIDER=custom CUSTOM_API_HOST=http://host.docker.internal:8000 # 指向vLLM服务[^3] ``` 3. **启动Dify服务** ```bash docker compose up -d ``` - 等待容器初始化后访问`http://localhost:8080` - 首次登录需设置管理员账号 --- #### **四、整合vLLM与Dify** 1. **在Dify中添加模型** - 进入**模型供应商** → **自定义模型** - 输入vLLM的API端点(如`http://host.docker.internal:8000/v1`) - 测试连接并保存配置 2. **创建知识库与应用** - 上传文档至知识库,选择vLLM支持的模型(如Llama-2) - 在应用编排中绑定模型和知识库 --- #### **常见问题排查** 1. **GPU无法识别** - 执行`nvidia-smi`验证驱动状态 - 添加`--runtime=nvidia`到docker run命令[^1] 2. **跨容器通信失败** - 使用`host.docker.internal`替代`localhost` - 检查防火墙是否开放8000/8080端口 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值