ollama + deepseek + open-webui 并使用博查联网搜索能力

前言

上一篇文章讲解了本地部署ollama + deepseek + open-webui并开启cuda、cudnn加速,现在讲解下open-webui实现网络搜索。
传送门:保姆级教程 本地部署 deepseek + ollama + open-webui + cuda + cudnn

一、博查简介

市面上有很多web search api厂商,比如brave、exa、bing等,但是基本是国外的,访问慢有些还需要魔法,微软的bing价格贵且订阅需要绑定国际信用卡,所以这里推荐国内的博查。
简介:持自然语言搜索的 Web Search API,从近百亿网页和生态内容源中搜索高质量世界知识,包括新闻、图片、视频、百科、机酒、学术等。
官网:https://bochaai.com/
开放平台:https://open.bochaai.com/
在这里插入图片描述

二、安装博查版open-webui

由于open-webui官方还没集成博查,据说已提交审核,应该快了,集成之后直接用open-webui配置即可。

### 配置 Open-WebUI 以仅使用本地模型 为了使 Open-WebUI 完全基于本地模型运行避免依赖任何远程资源,可以通过调整 Docker 启动参数以及配置文件来实现这一目标。以下是具体的说明: #### 修改 Docker 命令 在启动容器时,通过挂载本地存储路径到容器内部的数据目录,可以确保所有模型数据都保存在主机上而不是从外部拉取。例如,在命令中加入 `-v` 参数指定卷映射位置[^1]。 ```bash docker run -d \ -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v /path/to/local/models:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main ``` 上述命令中的 `/path/to/local/models` 应替换为你实际存放模型文件的位置。此操作允许 Open-WebUI 访问这些预下载好的模型而无需联网获取新版本[^2]。 #### 下载所需的大语言模型 提前准备好所需的 LLM 文件夹结构,将其放置于之前定义的共享目录下。对于 OllamaDeepSeek 这样的框架来说,通常会提供官方支持的一系列压缩包形式发布其训练成果;用户只需按照文档指示完成解压即可[^4]。 #### 调整应用行为 进入 Web UI 设置页面后,确认默认加载选项已切换至“Local Models Only”。这样即使网络连接中断也不会影响正常服务功能[^3]。 最后提醒一点,虽然理论上能够做到完全离线工作模式,但如果未来希望升级现有组件或者尝试最新发布的算法改进,则仍需重新建立互联网通道以便同步更新内容。 ```python import os local_model_path = "/path/to/local/models" if not os.path.exists(local_model_path): raise FileNotFoundError(f"The specified local model path does not exist: {local_model_path}") print("Using only locally available models.") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值