本地大模型Connection Refuse解决方案(已验证)

1. 修改Ollama的绑定地址

Ollama默认仅监听本地地址127.0.0.1,导致外部(如Docker容器内的RAGFlow)无法访问。需强制Ollama监听所有IP地址:

临时启动 :
直接在终端中启动Ollama时指定绑定地址:

OLLAMA_HOST=0.0.0.0 ollama serve

永久配置 (推荐):
修改系统环境变量或Ollama服务配置文件,添加OLLAMA_HOST=0.0.0.0,然后重启服务。

  • windows
    在这里插入图片描述
  • linux
    修改systemd服务文件 (适用于通过服务管理的安装):
sudo systemctl edit ollama

在打开的编辑器中添加:

[Service]
Environment="OLLAMA_HOST=0.0.0.0"

保存后重载配置并重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

2. 检查Docker网络配置

若RAGFlow运行在Docker容器中,暴露Ollama端口 ,确保Ollama服务的11434端口已映射到宿主机,例如:

docker run -p 11434:11434 ...  # 启动容器时添加端口映射

如果Docker设置了http_proxy或https_proxy,可能导致容器无法访问宿主机服务,删除代理配置后重启Docker。

3. 验证RAGFlow的连接地址

在RAGFlow配置文件(如config.yaml)中,确保Ollama的访问地址为宿主机IP(如http://<宿主机IP>:11434),而非127.0.0.1或localhost,
例如,若宿主机IP为192.168.1.100,则配置:

ollama:
  base_url: http://192.168.1.100:11434

4. 检查防火墙/安全组

确保宿主机的防火墙或云服务器安全组允许外部访问11434端口。
在Linux上开放端口:

sudo ufw allow 11434/tcp

在windows增加防火墙的端口规则:
http://localhost:11434

在这里插入图片描述

5. 测试连接

完成上述步骤后,通过以下命令验证RAGFlow是否能访问Ollama:

http://192.168.1.100:11434/api/tags

若返回模型列表,则配置成功。
在这里插入图片描述

6. 最终效果

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

具身小站

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值