FastGPT、One-api Docker服务端口的绑定

本文讲述了作者在部署离线版LLM时,如何通过修改docker-compose.yml文件将FastGPT的3000端口更改为3015以避免与One-API的端口冲突。同时寻求如何在不删除旧容器的情况下动态绑定端口号的方法。
GPT-oss:20b

GPT-oss:20b

图文对话
Gpt-oss

GPT OSS 是OpenAI 推出的重量级开放模型,面向强推理、智能体任务以及多样化开发场景

        这两天在部署离线版的LLM,用到FastGPT和One-API,官方镜像生成的容器设置端口都是3000,同时跑有冲突。

        FastGPT采用docker-compose运行的命令是:

mkdir fastgpt
cd fastgpt
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json
docker-compose pull
docker-compose up -d

        端口号的设置在docker-compose.yml这个文件中,默认是将宿主机的3000端口绑定到容器的3000端口(3000:3000),这里改成将宿主机的3015端口绑定到容器的3000端口(3015:3000),从而避免了冲突。

        如果想修改one-api的,在运行时修改即可:

docker run --name one-api -d --restart always -p 3014:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api

        由于刚开始部署没什么修改,我是直接把3000:3000的容器删掉再重新docker-compose一下的,如果能够不删掉旧容器,临时修改端口就更方便了。不知道有没有小伙伴知道怎么动态绑定端口号呢?

您可能感兴趣的与本文相关的镜像

GPT-oss:20b

GPT-oss:20b

图文对话
Gpt-oss

GPT OSS 是OpenAI 推出的重量级开放模型,面向强推理、智能体任务以及多样化开发场景

### 部署 FastGPTOneAPI 的本地环境配置指南 在 Linux 环境下部署 FastGPT 并集成 OneAPI 服务,可以实现本地大语言模型(LLM)的私有化部署和应用开发。以下是详细的配置步骤: #### 1. 准备工作 首先确保系统已经安装了 Docker 或 Podman 工具,并且具备基础的容器管理能力。如果使用 `podman-compose` 进行部署,则需要先安装 Podman 及其相关组件。 #### 2. 获取项目文件 克隆或下载 FastGPT 项目的 Docker Compose 文件,通常会包含 FastGPTOneAPI 和 Xinference 等服务的定义。例如: ```bash git clone https://github.com/fastgpt/fastgpt.git cd fastgpt ``` #### 3. 修改端口映射 如果默认端口被占用,可以在 `docker-compose.yml` 文件中修改 OneAPI 的端口映射设置。例如,将 OneAPI 的内部端口 3000 映射到主机的 13000 端口: ```yaml one-api: image: justsong/one-api ports: - "13000:3000" volumes: - /home/ubuntu/data/one-api:/data environment: - TZ=Asia/Shanghai ``` 也可以通过命令行运行 OneAPI 容器并指定端口映射[^2]: ```bash docker run --name one-api -d --restart always -p 13000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api ``` #### 4. 启动所有服务 使用 `podman-compose` 或 `docker-compose` 命令启动所有服务: ```bash podman-compose up -d # 或者使用 Docker Compose docker-compose up -d ``` 此命令会根据 `docker-compose.yml` 文件中的定义启动所有相关的容器服务。 #### 5. 访问 OneAPI OneAPI 默认运行在 3000 端口,若已修改为 13000,则可以通过访问 `<服务器IP>:13000` 来打开 OneAPI 的管理界面。在此处可以配置 API 密钥、模型渠道等信息。 #### 6. 配置 FastGPT FastGPT 默认运行在 3001 端口,可以通过访问 `<服务器IP>:3001` 打开 FastGPT 的 Web 界面。进入后,按照提示创建知识库、上传文档,并配置自定义模型以连接 OneAPI 提供的服务。 #### 7. 配置 Xinference 服务 Xinference 默认会在本地启动服务,端口为 9997。如果希望从其他设备访问该服务,可以在启动时添加 `-H 0.0.0.0` 参数,允许非本地客户端通过机器的 IP 地址来访问 Xinference 服务[^1]。 #### 8. 创建应用 在 FastGPT 中创建新的应用,并选择之前配置的知识库和模型,即可开始进行问答测试或其他应用场景的开发。 --- ###
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值