在 Windows 上配置 Ollama 服务并开放局域网访问的完整指南
随着 AI 模型和服务的普及,许多开发者在本地机器上搭建服务以便进行实验或开发工作。Ollama 是一个流行的本地 AI 服务工具,但默认情况下它只能在本地访问。如果想要在局域网中共享 Ollama 服务,你需要配置防火墙以开放对应的端口。本文将详细介绍如何在 Windows 上配置 Ollama 并通过防火墙设置共享服务。
1. Ollama 简介
Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务后,默认只允许本地访问,而局域网中的其他设备无法直接访问该服务。
为了在局域网内共享 Ollama 服务,我们需要完成以下两步:
- 设置 Ollama 的环境变量
OLLAMA_HOST
,使其监听局域网的 IP 地址。 - 在 Windows 防火墙中开放 Ollama 服务使用的端口(如 11434)。
2. 配置 Ollama 服务的监听地址
Ollama 服务使用环境变量 OLLAMA_HOST
来指定监听的地址,默认情况下,它只监听 localhost
,即只能本地访问。如果要让局域网内其他设备访问 Ollama 服务,需要将 OLLAMA_HOST
设为 0.0.0.0
。
设置环境变量
在 Windows 中,可以通过以下步骤来设置环境