本文介绍如何使用docker compose 快速部署chatgpt实现大模型的本地调用,并且修改默认模型选项。
root@jwl:/data/chatgpt-next-web# cat docker-compose.yaml
version: '3.9'
services:
chatgpt-next-web:
image: yidadaa/chatgpt-next-web
environment:
- BASE_URL=http://172.10.10.253:11434
- CUSTOM_MODELS=-all,+deepseek-r1:32b,+qwq:latest,+gemma3:27b
- DEFAULT_MODEL=qwq:latest
ports:
- '3600:3000'
这里配置大模型接口,比如你本地部署ollama,那么本地接口就是127.0.0.1:11434
- BASE_URL=http://172.10.10.253:11434
这里修改默认模型-all是删除cahtgpt里所有默认模型,+deepseek-r1:32b是添加本地deepseek-r1:32b为默认模型。
- CUSTOM_MODELS=-all,+deepseek-r1:32b,+qwq:latest,+gemma3:27b
修改完配置后直接运行docker compose启动服务
docker compose up -d