win11安装docker运行Open-Webui 界面化展示 ollama大模型

 1.OpenWeb UI运行需要docker 环境下载docker  Get Started | Docker

2.需要命令提示符docker -v 查询是否安装成功;

查询docker详情docker version

3.github拉取open-webUi镜像Package open-webui · GitHub

复制命令运行在命令提示符;

等待下载完成

4.到Github复制命令,ollama安装在本地,在命令提示符执行;

需要进入防火墙-新建站点-开通3000端口;开通流程win11 通过防火墙设置-开通本地端口-优快云博客

查看端口是否被占用   netstat -aon|findstr "11434"

下载成功

5.使用命令提示符,输入ipconfig查询本地IP,

浏览器访问【本地IP:3000】右上角设置,找到language设置,找到简体中文

设置-模型

host.docker.internal就是本地IP

查询docker进程

6.open-webui  选择已经安装的allama3:8B;

7.完成可以开始进行对话;

### 安装配置 对于希望在 Windows 10 的 Docker 环境中部署 Open WebUI 并使用 Ollama 调用 DeepSeek 来实现 RAG (Retrieval-Augmented Generation) 构建个人知识库的情况,需先确保已正确安装 Docker Desktop[^1]。 ### 启动容器 启动带有 GPU 支持的 Open WebUI 容器可以通过特定命令完成。这一步骤至关重要,因为 GPU 可加速模型推理过程: ```bash docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama ``` 上述命令中的 `-p` 参数用于指定端口映射;`--gpus=all` 表明启用全部可用 GPU 设备支持;而两个卷挂载选项则分别指向必要的数据存储路径[^2]。 ### 配置Ollama与DeepSeek集成 为了使 Open WebUI 中集成了 Ollama 的实例能够调用 DeepSeek 进行更复杂任务处理,在初始化设置阶段应确认环境变量或配置文件内指定了正确的 API 访问凭证及其他必要参数。通常这些细节会在官方文档中有具体说明。 ### 使用RAG特性建立个性化资料库 Open WebUI 自带 RAG 功能允许用户通过简单的指令操作来获取实时网络资源并据此生成内容。当想要基于此机制搭建专属的知识体系时,只需按照提示于交互界面里键入 `#` 加上目标 URL 即可即时抓取页面信息作为素材基础[^3]。 例如,如果要从某个网站收集有关机器学习的文章片段加入到自己的数据库中,则可以这样尝试: - 打开浏览器访问 http://localhost:3000 登录至应用首页; - 输入框处打入 `#https://example.com/machine-learning-article` (替换为实际链接地址); - 接下来依照指引保存所需条目直至形成完整的集合体。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值