Open-webui GPU版本的安装(ollama,llama3本地部署,docker部署)

安装依赖

  • 安装好需要的环境 nvidia docker
  • 安装好 nvidia docker 的 cuda

下载镜像

  • 同时安装Open WebUI和Ollama

  • 仅CPU,使用此命令:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

GPU版本,使用GPU加速

  • 在Nvidia GPU支持下运行Ollama,请使用Nvidia-docker工具进行GPU访问,并为CUDA支持设置适当的环境变量::
docker run -d -p 8080:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui-gpu --restart always ghcr.io/open-webui/open-webui:ollama
备注
  • –name open-webui 表示该镜像的名称为 open-webui
  • -p 8080:8080 其中的8080是后面打开网页的端口号
  • 如果之前安装了 CPU 版本的open-webui, 那么,在安装GPU版本的时候要注意改一下gpu版本的名称(–name open-webui-gpu)
  • –volume open-webui:/app/backend/data 表示将本地的 open-webui 文件夹挂载到容器中,这样容器中的数据就保存到这个目录中的

安装模型

  • llama3:8b-instruct-fp16
  • llama3

可能会遇到无法安装模型的问题,只能安装litellm

  • 解决方法是移除相关镜像,然后重新拉去和安装镜像
  • 采用新命令安装gpu版本(猜测可能是没有安装ollama的原因)
docker run -d -p 8080:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui-gpu --restart always ghcr.io/open-webui/open-webui:ollama
可能会出现还保留有之前镜像注册的账户,这个时候需要删除之前镜像的挂载目录
  • 1、删除容器:先确保停止并删除相关容器,包括任何可能使用这些卷的容器。
docker stop open-webui
docker rm open-webui
  • 2、删除卷:删除卷,包括任何可能使用这些卷的容器。
docker volume rm ollama open-webui
  • 3、清理未使用的卷:如果不确定卷的名称,可以查看所有卷并删除未使用的卷。
docker volume prune
  • 4、重新启动容器:由于相关卷已被删除,任何之前的用户数据和设置都不会被加载。
<think>好的,我需要帮助用户在Ubuntu系统上运行ghcr.io/open-webui/open-webui:main容器镜像。首先,我需要查看用户提供的引用资料,找出相关的步骤和配置。 用户提到了四个引用,其中引用[1]提到了在docker启动命令中添加HF_ENDPOINT环境变量,使用hf-mirror.com作为镜像源。引用[2]和[3]涉及克隆仓库和docker部署的基本步骤。引用[4]详细说明了在Ubuntu下安装ollamaopen-webui的过程,包括docker配置和国内镜像源设置。 接下来,我需要整合这些信息,给出一个清晰的步骤指南。首先,确保系统已经安装docker,并且配置了国内镜像源,以加速下载。然后,拉取open-webui的镜像,运行容器时添加必要的环境变量,特别是HF_ENDPOINT。用户可能还需要部署ollama作为后端,所以需要包含ollama安装步骤,并确保网络配置正确,使得open-webui可以连接到ollama服务。 另外,需要注意用户提到的兼容性问题,确认Ubuntu 22.04系统是否支持该镜像。根据引用[3]和[4],Ubuntu 22.04是可行的,所以需要说明这一点。此外,端口映射和持久化存储也是关键点,需要指导用户正确映射端口和数据卷。 最后,生成相关问题,帮助用户解决可能遇到的后续问题,比如性能优化、网络配置或持久化存储设置。确保所有步骤符合用户提供的引用内容,并正确标注引用来源。</think>以下是在Ubuntu系统上运行ghcr.io/open-webui/open-webui:main容器镜像的详细步骤: ### 一、基础环境准备 1. **更新系统包列表** ```bash sudo apt update && sudo apt upgrade -y ``` 2. **安装Docker** ```bash sudo apt install docker.io docker-compose -y sudo systemctl enable --now docker ``` 3. **配置Docker镜像加速** 在`/etc/docker/daemon.json`中添加: ```json { "registry-mirrors": ["https://docker.mirrors.ustc.edu.cn"] } ``` 重启服务: ```bash sudo systemctl restart docker ``` ### 二、运行Open WebUI容器 ```bash sudo docker run -d \ -p 8080:8080 \ -v open-webui:/app/backend/data \ -e HF_ENDPOINT=https://hf-mirror.com \ # 特别重要的大模型下载加速配置[^1] --name open-webui \ ghcr.io/open-webui/open-webui:main ``` ### 三、兼容性说明 1. **系统支持**:已验证兼容Ubuntu 20.04/22.04 LTS版本[^3] 2. **硬件要求**: - 最低4GB内存 - 推荐使用NVIDIA GPU驱动(需提前安装)[^4] - CUDA工具包版本≥11.8 ### 四、搭配Ollama部署(可选) 1. **安装Ollama容器**: ```bash sudo docker run -d -p 11434:11434 --name ollama -v ollama:/root/.ollama ollama/ollama ``` 2. **测试模型下载**: ```bash sudo docker exec -it ollama ollama run llama2 ``` 3. **连接Open WebUI**: 访问`http://localhost:8080`,在设置中填入Ollama地址:`http://主机IP:11434`[^4]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值