Open WebUI使用deepseek

部署运行你感兴趣的模型镜像

        Open WebUI+Ollama+本地LLM是大模型本地化部署典型落地手段,其实Open WebUI并非一定与Ollama配套,可以直接与在线的大模型比如openai、deepseek等结合使用。本文仅介绍通过简单的配置,实现Open WebUI与deepseek的结合。

        前提条件:先申请deepseek的API key。

        具体配置过程如下:

        (1)找到管理员设置入口

        (2)选择【设置】进入管理员设置页面:

        (3)选择【外部连接】,进入管理直接连接页面

        (4)选择添加一个链接 【+】

        填写外部模型URL和API KEY并保存,进入最终保存页面:

        确认无误后,保存。左上角显示新增加的模型。可以使用进行对话。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

### 配置 DeepSeek WebUI 为了配置 DeepSeekWebUI,在本地环境中完成一系列设置是必要的。这不仅涉及软件本身的安装,还包括创建适合运行该应用的环境。 #### 下载并安装 Ollama 考虑到 DeepSeek 对硬件资源的需求,特别是显存大小的选择对于模型性能至关重要。依据所选模型版本(例如 `deepseek-r1:32b`),需先下载并安装 Ollama 工具链来管理这些大型语言模型[^3]。 #### 安装 Conda 并建立 Python 环境 Conda 是一个开源包管理系统和环境管理系统,用于安装多个版本的应用程序及其依赖项,并可以在隔离环境中切换使用它们。通过执行如下命令可以获取最新版 Miniconda: ```bash curl -O https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe start Miniconda3-latest-Windows-x86_64.exe ``` 接着,创建一个新的名为 `open-webui` 的虚拟环境,并激活它以便后续操作都在此环境下进行: ```bash conda create -n open-webui python=3.11 conda activate open-webui ``` #### 安装 Open Web UI 库 一旦环境准备就绪,则可以通过 pip 来安装所需的 web ui 组件库: ```bash pip install open-webui ``` #### 启动服务 最后一步就是启动 Web UI 服务器端口,默认情况下会监听于 localhost 上的 8080 端口: ```bash open-webui serve ``` 此时应该能够在浏览器地址栏输入 http://localhost:8080 访问到已成功部署好的 DeepSeek WebUI 页面[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值