在 Windows 上配置 Ollama 服务并开放局域网访问

在 Windows 上配置 Ollama 服务并开放局域网访问的完整指南

随着 AI 模型和服务的普及,许多开发者在本地机器上搭建服务以便进行实验或开发工作。Ollama 是一个流行的本地 AI 服务工具,但默认情况下它只能在本地访问。如果想要在局域网中共享 Ollama 服务,你需要配置防火墙以开放对应的端口。本文将详细介绍如何在 Windows 上配置 Ollama 并通过防火墙设置共享服务。

1. Ollama 简介

Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务后,默认只允许本地访问,而局域网中的其他设备无法直接访问该服务。

为了在局域网内共享 Ollama 服务,我们需要完成以下两步:

  1. 设置 Ollama 的环境变量 OLLAMA_HOST,使其监听局域网的 IP 地址。
  2. 在 Windows 防火墙中开放 Ollama 服务使用的端口(如 11434)。

2. 配置 Ollama 服务的监听地址

Ollama 服务使用环境变量 OLLAMA_HOST 来指定监听的地址,默认情况下,它只监听 localhost,即只能本地访问。如果要让局域网内其他设备访问 Ollama 服务,需要将 OLLAMA_HOST 设为 0.0.0.0

设置环境变量

在 Windows 中,可以通过以下步骤来设置环境

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值