DeepSeek R1 + Open-Webui 部署实战

1. Open-WebUI部署流程

首先需要安装Open-WebUI,官网地址如下:
https://github.com/open-webui/open-webui
在这里插入图片描述
直接使用在GitHub项目主页上直接下载完整代码包,并上传至服务器解压缩运行:
在这里插入图片描述
安装完成后先不启动,等其他相关组件安装完后再启动。

2. ollama安装部署

Open-WebUI原生支持使用Ollama调用本地模型进行推理,Ollama是一款大模型下载、管理、推
理、优化集一体的强大工具,可以快速调用各类离线部署的大模型。
Ollama官网:https://ollama.com/
在这里插入图片描述

  • 【安装方案一】Ollama在线安装
    在Linux系统中,可以使用如下命令快速安装Ollama
curl -fsSL https://ollama.com/install.sh | sh

但该下载流程会受限于国内网络环境,下载过程并不稳定。

  • 【安装方案二】Ollama离线安装
    因此,在更为一般的情况下,推荐使用Ollama离线部署。我们可以在Ollama Github主页查看目前
    Ollama支持的各操作系统安装包:https://github.com/ollama/ollama/releases
    在这里插入图片描述若是Ubuntu操作系统,选择其中 ollama-linux-amd64.tgz 下载和安装即可。
    下载完成后,需要先上传至服务器
    然后使用如下命令进行解压缩
mkdir ./ollama
tar -zx
### DeepSeek OpenWebUI 使用指南 #### 安装验证 为了确认已正确下载并准备就绪,可以执行命令 `ollama list` 来查看当前可用的模型列表。如果一切正常,应当能看到 `deepseek-r1:latest` 出现在返回的结果之中[^2]。 #### 启动交互式会话 对于希望直接通过命令行与 AI 进行交流的情况,可以通过输入 `ollama run deepseek-r1` 开启一次交互式的聊天体验。这允许用户实时发送提示词给模型,并接收其响应。 #### 利用API接口测试 另一种方式则是采用 HTTP 请求的形式来调用 API 接口进行调试。具体来说,在新的终端窗口里运行如下 cURL 命令: ```bash curl http://localhost:11434/api/generate -d '{"model":"deepseek-r1","prompt":"用python写快速排序"}' ``` 此操作将会向指定端点提交请求,其中包含了所选模型名称以及想要获取的回答或生成的内容作为参数传递过去。 #### 部署图形界面管理工具——OpenWebUI 为了让管理和监控更加直观便捷,建议利用 Docker 快速搭建起 OpenWebUI 服务环境。只需按照下面给出的一键启动脚本即可完成部署工作: ```dockerfile docker run -d -p 3000:8080 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ --name openwebui \ --restart always \ ghcr.io/open-webui/open-webui:main ``` 之后便可通过浏览器访问位于 `http://localhost:3000` 上线的应用程序页面来进行后续的操作设置和维护活动了。 #### WebUI配置实战技巧 当进入 OpenWebUI 控制面板后,可以根据实际需求调整各项参数选项,比如修改默认使用的模型版本、设定自定义指令集等。这些个性化定制能够帮助更好地适配不同的应用场景,提高工作效率和服务质量。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值