一、ollama部署
1、ollama官网安装教程,可以参考这个进行部署,下载对应版本
ollama在线安装
curl https://ollama.ai/install.sh | sh
2、配置参数
sudo vi /etc/systemd/system/ollama.service
Environment="OLLAMA_HOST=0.0.0.0" # 本机ip访问
Environment="OLLAMA_MODELS=/opt/ollama/" # 自定义模型存放路径
3、重新服务
systemctl daemon-reload
systemctl restart ollama.service
4、查看是否已经运行
curl localhost:11434
执行后显示Ollama is running说明服务运行正常
5、常用模型下载
ollama run llama3.1
ollama run llama3.2-vision
ollama run Llama3-Chinese-8B
二、open-webui部署
1、docker安装
sudo apt update && sudo apt install docker.io apparmor -y
2、open-webui安装
sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
说明:
3000端口可以自定义
–add-host:将host.docker.internal=host-gateway添加到容器内/etc/hosts中,即容器内的hosts文件会增加一条记录172.17.0.1 host.docker.internal。host.docker.internal=host-gateway是固定用法。
-v open-webui:/app/backend/data : 将宿主机的open-webui目录映射到容器/app/backend/data目录。
3、登录open-webui
在浏览器地址栏输入http://ip:port