ollama + deepseek + open-webui 并使用博查联网搜索能力

前言

上一篇文章讲解了本地部署ollama + deepseek + open-webui并开启cuda、cudnn加速,现在讲解下open-webui实现网络搜索。
传送门:保姆级教程 本地部署 deepseek + ollama + open-webui + cuda + cudnn

一、博查简介

市面上有很多web search api厂商,比如brave、exa、bing等,但是基本是国外的,访问慢有些还需要魔法,微软的bing价格贵且订阅需要绑定国际信用卡,所以这里推荐国内的博查。
简介:持自然语言搜索的 Web Search API,从近百亿网页和生态内容源中搜索高质量世界知识,包括新闻、图片、视频、百科、机酒、学术等。
官网:https://bochaai.com/
开放平台:https://open.bochaai.com/
在这里插入图片描述

二、安装博查版open-webui

由于open-webui官方还没集成博查,据说已提交审核,应该快了,集成之后直接用open-webui配置即可。

将源码下载到本地,上一篇已经讲述了如何安装Anaconda,现在一样创建一个 open-webui-bocha 的虚拟环境:

conda create -n open-webui-bocha python=3.11

切换到 open-webui-bocha 环境

activate open-webui-bocha

切换pip镜像源

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple

进入 open-webui-Bocha/backend 目录,安装依赖

pip install -r requirements.txt -U

在 backend 目录新建data文件夹存放数据库
在这里插入图片描述

三、安装nvm并构建前端

因为需要打包前端,所以推荐使用nvm来管理node版本,方便切换使用。

下载完直接安装即可,然后安装node V20.3.0

nvm install 20.3.0

切换到node 20.3.0

nvm use 20.3.0

设置npm镜像源

npm config set registry=https://registry.npmmirror.com

进入 open-webui-Bocha 根目录,安装前端所需的相应依赖和模块

npm install

构建前端环境

npm run build

四、启动open-webui-bocha

进入 open-webui-Bocha/backend 文件夹下执行 start_windows.bat,出现以下内容说明启动成功:
在这里插入图片描述
如出现包含 huggingface 的报错,是由于本机因无法访问huggingface网站而导致无法下载对应的语义向量模型,自己加点魔法~

五、配置博查联网搜索

进入博查开放平台(https://open.bochaai.com/),登录之后获取自己的API key 信息(需要充个10块,没免费额度~)
在这里插入图片描述
设置联网搜索:管理员面板->设置->联网搜索->点开启用联网搜索->选择bocha->输入bochaAPI->保存

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

<think>好的,用户想在Ubuntu系统下离线安装Ollama、Docker以及DeepSeek-R1-7B模型,配置WebUI来访问模型。首先,我需要理清整个安装流程,确保每个步骤都正确无误,且符合离线环境的要求。 首先,Ollama的安装通常是通过在线命令进行的,但用户需要离线安装。这意味着我需要找到Ollama的离线安装包,比如.deb文件,或者指导用户如何从另一台联网的机器上下载所需文件,再转移到目标Ubuntu系统。可能需要访问Ollama的GitHub仓库或官方网站获取离线包。安装完成后,验证是否安装成功,比如运行`ollama --version`命令。 接下来是Docker的离线安装。Docker通常也是在线安装,但离线情况下需要下载.deb包及其所有依赖项。用户可能需要使用`apt-offline`或类似工具生成依赖列表,然后在有网络的机器上下载这些依赖,再复制到离线环境进行安装。或者,直接下载Docker的离线包,但需注意版本兼容性。安装完成后,启动Docker服务加入用户组,确保权限正确。 然后是DeepSeek-R1-7B模型的离线安装。通常,Ollama通过`ollama pull`在线拉取模型,但离线情况下需要将模型文件手动放置到正确目录。用户需要提前获取模型的Blob文件和Modelfile,可能从另一台已下载的机器上复制,或者从官方渠道获取离线包。将文件放入Ollama的模型存储路径,创建相应的模型名称,以便Ollama识别。 配置WebUI部分,用户提到使用Open WebUI。由于是离线环境,需要下载Open WebUI的Docker镜像,保存为tar文件,再在目标机器上加载。此外,设置环境变量,确保WebUI能连接到本地的Ollama服务。运行Docker容器时,映射端口指定环境变量,可能需要检防火墙设置,确保3000端口可访问。 在整个过程中,需要注意权限问题,比如Docker需要用户加入docker组,Ollama服务可能需要适当的权限。另外,离线安装涉及到多个组件的依赖关系,必须确保所有依赖项都已正确安装,避免因缺少库文件导致失败。 可能遇到的问题包括:离线包版本不兼容、依赖项缺失、模型文件路径错误、Docker镜像加载失败、WebUI无法连接Ollama服务等。需要提供相应的解决方案,比如检文件完整性,验证服务状态,看日志排错误等。 最后,用户可能需要测试整个配置是否成功,访问WebUI尝试与模型交互,确保所有组件正常运行。同时,提供相关的Ollama命令,帮助用户管理模型,比如列出已安装模型、运行模型等。</think>### Ubuntu系统离线安装Ollama、Docker与DeepSeek-R1-7B模型配置指南 #### 一、Ollama离线安装 1. **获取离线安装包** 在联网设备访问[Ollama GitHub仓库](https://github.com/ollama/ollama)下载最新Linux版本,或直接获取`.deb`安装包[^1] 2. **手动安装** ```bash sudo dpkg -i ollama_0.1.26_amd64.deb # 替换实际版本号 sudo systemctl enable ollama ``` 3. **验证安装** ```bash ollama --version # 应显示版本信息 ``` #### 二、Docker离线安装 1. **下载离线包** 获取包含以下文件的离线包: - `docker-ce_24.0.6-1~ubuntu.22.04~jammy_amd64.deb` - `containerd.io_1.6.21-1_amd64.deb` - `docker-ce-cli_24.0.6-1~ubuntu.22.04~jammy_amd64.deb` 2. **批量安装** ```bash sudo dpkg -i *.deb sudo usermod -aG docker $USER newgrp docker ``` #### 三、DeepSeek-R1-7B模型部署 1. **手动导入模型** 将模型文件复制到`/usr/share/ollama/.ollama/models`目录: ```bash sudo mkdir -p /usr/share/ollama/.ollama/models sudo cp deepseek-r1-7b /usr/share/ollama/.ollama/models/ ``` 2. **创建模型配置** 新建`Modelfile`: ```text FROM deepseek-r1-7b PARAMETER num_ctx 4096 ``` #### 四、Open WebUI离线配置 1. **导入Docker镜像** ```bash docker load < open-webui.tar ``` 2. **启动容器** ```bash docker run -d -p 3000:8080 \ -e OLLAMA_API_BASE_URL=http://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ ghcr.io/open-webui/open-webui:main ``` 3. **访问验证** 浏览器打开`http://localhost:3000`,首次登录需创建管理员账户 #### 五、完整验证流程 1. **启动Ollama服务** ```bash sudo systemctl start ollama ``` 2. **运行模型测试** ```bash ollama run deepseek-r1-7b "解释量子力学" ``` 3. **看服务状态** ```bash docker ps -a # 应显示open-webui容器运行中 ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值