【大模型部署】本地部署FastGPT使用在线大语言模型

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力,它背后依赖OneApi开源项目来访问各种大语言模型提供的能力。各大语言模型提供的访问接口规范不尽相同,为此OneApi项目提供了统一的API接口去对接各种大语言模型。FastGPT的部署架构如图所示:
在这里插入图片描述

本文章将介绍如何部署OneApi和FastGPT,以及两种在线大语言模型(AzureOpenAI讯飞星火3.5 )的配置方法。

我将在Windows系统的WSL子系统上进行部署,WSL子系统安装的是Ubuntu22 Linux系统,WSL的部署方式完全适用于真实的Linux系统。

一、部署OneApi

OneApi项目开源地址:https://github.com/songquanpeng/one-api

1.在/opt目录下创建oneapi目录
cd opt
mkdir oneapi
cd oneapi
2.编辑docker-compose.yml文件

在/opt/oneapi目录下创建docker-compose.yml文件,将下面的内容复制进去并保存

version: '3.8'

services:
  oneapi:
    container_name: oneapi
    image: justsong/one-api:latest
    restart: unless-stopped
    ports:
      - 3001:3000
    networks:
      - llm_net
    volumes:
      - ./data:/data
    environment:
      - TZ=Asia/Shanghai

networks:
  llm_net:
    name: llm_net
    external: true  
3.创建llm_net docker网络
docker network create llm_net
4.运行oneapi
docker compose up -d
5.配置AzureOpenAI渠道

登录http://localhost:3001,用户名:root,密码:123456。

如果你没有申请AzureOpenAI,可以直接查看讯飞星火的配置方式。其实申请AzureOpenAI并不难,网上教程很多,只要真实填写相关信息,一般24小时内就可以通过。

接下来我们添加AzureOpenAI渠道,按照图中的方式填写就好了。这里有一个需要注意的地方就是名称那一项填的是Azure上面的部署名称,而这个部署名称必须要和模型名称一致(很奇怪的做法,GitHub上已经有人提了issue,正在解决)
在这里插入图片描述

在这里插入图片描述

6.测试

渠道添加成功后,可以在渠道列表页面点击“测试”按钮,如果没有问题,会返回测试成功。
在这里插入图片描述

7.创建令牌

令牌的名称随便填,由于是测试,可以把额度设置为无限额度。

提交后,可以在令牌列表页面复制刚刚创建的令牌,这个令牌将在部署FastGPT时用到。
在这里插入图片描述

二、部署fastgpt
1.在/opt目录下创建fastgpt目录
cd opt
mkdir fastgpt
cd fastgpt
2.编辑docker-compose.yml文件

请先阅读FastGPT官方部署文档:https://doc.fastgpt.in/docs/development/docker/

下载docker-compose.yml文件和config.json文件

curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json

编辑docker-compose.yml文件,主要是更改了容器网络,数据库用户名密码之类的

version: '3.8'
services:
  pg:
    image: ankane/pgvector:v0.5.0 # git
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云
    container_name: pg
    restart: always
    ports: 
      - 5432:5432
    networks:
      - llm_net
    environment:
      - POSTGRES_USER=fastgpt
      - POSTGRES_PASSWORD=123456
      - POSTGRES_DB=fastgpt
    volumes:
      - ./pg/data:/var/lib/postgresql/data

  mongo:
    image: mongo:5.0.18
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云
    container_name: mongo
    ports:
      - 27017:27017
    networks:
      - llm_net
    command: mongod --keyFile /data/mongodb.key --replSet rs0
    environment:
      - MONGO_INITDB_ROOT_USERNAME=fastgpt
      - MONGO_INITDB_ROOT_PASSWORD=123456
    volumes:
      - ./mongo/data:/data/db
      - ./mongodb.key:/data/mongodb.key

  fastgpt:
    container_name: fastgpt
    image: ghcr.io/labring/fastgpt:latest # git
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云
    ports:
      - 3002:3000
    networks:
      - llm_net
    depends_on:
      - mongo
      - pg
    restart: always
    environment:
      - DEFAULT_ROOT_PSW=123456
      - OPENAI_BASE_URL=http://192.168.2.117:3001/v1
      - CHAT_API_KEY=sk-XXXXX # 在OneApi中创建的令牌
      - DB_MAX_LINK=5 # database max link
      - TOKEN_KEY=any
      - ROOT_KEY=root_key
      - FILE_TOKEN_KEY=filetoken
      # mongo 配置,不需要改. 用户名myname,密码mypassword。
      - MONGODB_URI=mongodb://fastgpt:123456@mongo:27017/fastgpt?authSource=admin
      # pg配置. 不需要改
      - PG_URL=postgresql://fastgpt:123456@pg:5432/fastgpt
    volumes:
      - ./config.json:/app/data/config.json

networks:
  llm_net:
    name: llm_net
    external: true  

这里要注意的 OPENAI_BASE_URL=http://192.168.2.117:3001/v1,我本来想设置成http://oneapi:3000/v1,因为fastgpt与oneapi在同一个docker网络,但fastgpt访问不了这个地址,可能是哪里没有设置对,只好先用本机ip来访问。

3.编辑config.json文件

改动如下,name改成在oneapi配置中的一样
在这里插入图片描述

4.运行fastgpt
docker compose up -d

运行成功之后,不要忘了对MongoDb进行配置,直接按官网的步骤进行操作:

# 查看 mongo 容器是否正常运行
docker ps
# 进入容器
docker exec -it mongo bash
# 连接数据库
mongo -u myname -p mypassword --authenticationDatabase admin
# 初始化副本集。如果需要外网访问,mongo:27017 可以改成 ip:27017。但是需要同时修改 FastGPT 连接的参数(MONGODB_URI=mongodb://myname:mypassword@mongo:27017/fastgpt?authSource=admin => MONGODB_URI=mongodb://myname:mypassword@ip:27017/fastgpt?authSource=admin)
rs.initiate({
  _id: "rs0",
  members: [
    { _id: 0, host: "mongo:27017" }
  ]
})
# 检查状态。如果提示 rs0 状态,则代表运行成功
rs.status()
5.测试

官网说OPENAI_BASE_URL地址后面要加v1,当我加了的时候,测试结果如下,报404:
在这里插入图片描述

于是去oneapi容器查看日志,可以看到fastgpt请求已经转到了oneapi,oneapi又去请求AzureOpenAI, AzureOpenAI返回404。于是去Azure上测试部署后的聊天功能,按F12查看网络请求,发现路由里面没有v1

于是更改docker-compose.yml文件,把OPENAI_BASE_URL值中的v1去掉了,重新执行docker-compose up -d ,重启之后继续测试,这次的报错就不一样了,如下图所示:
在这里插入图片描述

查看oneapi日志,请求结果是200,但没有响应内容,找了很久的原因,无法得知是OneApi还是Azure OpenAI的问题,于是转而去测试讯飞星火大模型。
在这里插入图片描述

三、配置讯飞星火认知大模型
1.创建讯飞模型应用

先去官方领取讯飞星火认知大模型的个人免费试用套餐,然后去到讯飞开放平台去创建基于v3.5版本的应用,得到APPID、APISecret、APIKey三个值(在OneApi中需要用到)
在这里插入图片描述

2.在oneapi页面添加星火模型渠道

在这里插入图片描述

3.编辑fastgpt的config.json文件

增加星火模型的配置
在这里插入图片描述

4.重启fastgpt容器

注意:如果你之前的操作把OPENAI_BASE_URL的v1去掉了,请把它补上,然后执行命令:docker-compose up -d

5.测试

AI模型选择上面配置的spark3.5,测试成功
在这里插入图片描述

AI大模型应用怎么学?

这年头AI技术跑得比高铁还快,“早学会AI的碾压同行,晚入门的还能喝口汤,完全不懂的等着被卷成渣”!技术代差带来的生存压力从未如此真实。
兄弟们如果想入门AI大模型应用,没必要到处扒拉零碎教程,我整了套干货大礼包:从入门到精通的思维导图、超详细的实战手册,还有模块化的视频教程!现在无偿分享。

1.学习思维导图

AI大模型应用所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

2.从入门到精通全套视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

3.技术文档和电子书

整理了行业内PDF书籍、行业报告、文档,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

朋友们如果有需要全套资料包,可以点下面卡片获取,无偿分享!

<think>好的,用户想了解如何在本地环境中部署M3大模型,特别是教程、方法和步骤。首先,我需要回忆一下相关的引用内容。根据提供的引用[1]和[2],部署流程涉及FastGPT、M3E和Ollama的组合。用户提到的“M3大模型”可能是指M3E模型,或者是某个特定的大模型,但根据引用中的信息,M3E是一个向量模型,而Ollama用于部署语言模型。 首先,用户可能需要安装Ubuntu系统,然后安装Docker,这是部署的基础。引用[1]提到Ubuntu20.04安装Docker的文档。接下来,需要部署FastGPT,这可能是一个前端或管理界面。然后,安装M3E作为向量模型,用于处理知识库的索引。同时,Ollama用于部署语言模型,比如Llama 2,用户需要下载并配置模型文件。 用户的问题可能包括具体的步骤,例如如何安装Docker、配置FastGPT、设置M3E向量模型,以及如何将Ollama中的模型整合到FastGPT中。需要分步骤解释,确保用户能按顺序操作。此外,可能需要注意的常见问题,比如服务启动失败、模型加载错误等,需要给出解决方案。 还要检查是否需要其他依赖项或配置,比如端口设置、权限问题。引用[2]提到在FastGPT中创建知识库时选择对应的模型,这部分需要详细说明界面操作步骤。可能用户对如何选择模型和关联服务不太清楚,需要强调在创建知识库时的选项配置。 最后,生成相关问题时要围绕部署步骤、优化方法、应用场景和故障排除等方面,帮助用户进一步了解相关主题。</think>以下是本地部署 M3 大模型(基于 FastGPT + M3E + Ollama 方案)的详细步骤: ### 一、基础环境准备 1. **安装 Ubuntu 系统** - 推荐 Ubuntu 20.04 LTS 版本,使用命令更新系统: ```bash sudo apt update && sudo apt upgrade -y ``` 2. **安装 Docker 环境** - 执行官方安装脚本: ```bash curl -fsSL https://get.docker.com | bash -s docker ``` - 验证安装:`docker --version`[^1] ### 二、核心组件部署 3. **部署 FastGPT** ```bash # 拉取镜像 docker pull fastgpt/fastgpt:latest # 启动容器 docker run -d --name fastgpt -p 3000:3000 fastgpt/fastgpt ``` 4. **配置 M3E 向量模型** - 在 FastGPT 管理界面: 1. 进入「模型管理」>「向量模型」 2. 新建模型,选择 M3E 类型并指定 API 地址 ```bash # 示例 M3E 服务地址 http://localhost:6006/embeddings ``` 5. **Ollama 模型部署** - 安装 Ollama 服务: ```bash curl -fsSL https://ollama.ai/install.sh | sh ``` - 下载语言模型: ```bash ollama pull llama2 # 示例模型 ``` ### 三、系统集成配置 6. **关联组件** - 在 FastGPT 的「知识库管理」中: 1. 新建知识库时选择 M3E 向量模型 2. 文件处理模型选择 Ollama 中安装的模型(如 llama2)[^2] $$ \text{系统架构示意图:} \\ \text{FastGPT(Web)} \leftrightarrow \text{M3E(向量计算)} \leftrightarrow \text{Ollama(LLM推理)} $$ ### 四、验证部署 ```bash # 检查服务状态 docker ps | grep fastgpt ollama list ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值