本地部署大模型-web界面(ollama + open-webui)

部署运行你感兴趣的模型镜像

一、安装ollama

二、安装部署open-webui

1、项目运行环境

(1)配置python环境—官方下载链接

可通过命令行直接更改python镜像源为阿里云镜像源

>pip config set global.index-url http://mirrors.aliyun.com/pypi/simple/

也可手动修改配置文件(默认路径C:\Users\Administrator\AppData\Roaming\pip\pip.ini)
在这里插入图片描述

(2)配置nodejs环境—官方下载链接

2、安装docker

(1)安装并更新wsl,使用管理员身份运行PowerShell,执行命令:

>wsl --update

在这里插入图片描述
重启电脑,执行命令:

>wsl --install

(2)下载安装docker
官方下载链接

安装之后运行出现以下弹窗,说明WSL环境安装成功。
在这里插入图片描述

3、配置open-webui

github页面

方法一:使用python快速部署(注意需使用3.11版本避免兼容性问题):

安装open-webui

>pip install open-webui

启动open-webui服务:

open-webui serve

方法二:使用docker快速部署

官方参考文档
若本机已安装ollama,可使用以下命令快速部署:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

运行支持Nvidia GPU的Open WebUI,执行命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

部署完成后,访问http://localhost:3000即可进入web界面。
首次进入会提示注册管理员用户,自行注册即可。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值