DB-GPT,开源的AI数据开发框架,可利用自然语言生成可视化报表

DB-GPT,开源的AI数据开发框架,可利用自然语言生成可视化报表

阅读原文

建议阅读原文以获得最佳阅读体验:《DB-GPT,开源的AI数据开发框架,可利用自然语言生成可视化报表》

简介

github项目网址:eosphoros-ai/DB-GPT: AI Native Data App Development framework with AWEL(Agentic Workflow Expression Language) and Agents

官网:Overview | DB-GPT

DB-GPT 是什么?

🤖️ DB-GPT是一个开源的AI原生数据应用开发框架(AI Native Data App Development framework with AWEL(Agentic Workflow Expression Language) and Agents)。

目的是构建大模型领域的基础设施,通过开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单,更方便。

🚀 数据3.0 时代,基于模型、数据库,企业/开发者可以用更少的代码搭建自己的专属应用。

简单的说,大家可以通过自然语言生成生成报表,支持与excel文件、数据库、知识库对话。

引言

因为工作需要,规范企业电脑软件清单,本人偶尔需要从glpi数据库中导出安装了特定软件的计算机清单(包含使用人),我之前的做法,是写一个SQL语句,然而再利用Powershell调整excel的格式,使其更加直观。具体可以看我之前写的一篇文章https://mp.weixin.qq.com/s/hV70jW7RPZ4vim7pXs_kKQ

自从2022年底AI技术爆发后,将AI技术应用于生成式BI的研究越来越多了,我想能不能利用AI技术,直接用自然语言就能查询数据,或者生成报表呢?于是我找到了DB-GPT,做了一些实验。

类似软件

Vanna.AI   Vanna.AI Documentation

chat2DB

Langchain

部署

用docker compose部署

参考资料:Docker-Compose部署

git clone https://github.com/eosphoros-ai/DB-GPT.git
cd DB-GPT

设置环境变量:

#编辑~/.bashrc文件,在文件末尾加上一行
export DASHSCOPE_API_KEY="<此处替换为你的阿里云百炼上的API KEY>"
#使得配置立即生效
source ~/.bashrc

本文采用阿里云上的大模型,qwen-plus,需要更改一些配置文件

nano configs/dbgpt-proxy-tongyi.toml

[system]
# Load language from environment variable(It is set by the hook)
language = "${env:DBGPT_LANG:-zh}" #这一行的含义是设置DBGPT_LANG的语言,默认为en
api_keys = []
encrypt_key = "your_secret_key"

# Server Configurations
[service.web]
host = "0.0.0.0"
port = 5670

[service.web.database]
type = "sqlite"
path = "pilot/meta_data/dbgpt.db"

[rag.storage]
[rag.storage.vector]
type = "chroma"
persist_path = "pilot/data"

# Model Configurations
[models]
[[models.llms]]
name = "qwen-plus"  #此处可以更改大模型
provider = "${env:LLM_MODEL_PROVIDER}"  #此处做了调整
api_base = "https://dashscope.aliyuncs.com/compatible-mode/v1"
api_key = "${env:DASHSCOPE_API_KEY}"

[[models.embeddings]]
name = "text-embedding-v3"
provider = "${env:EMBEDDING_MODEL_PROVIDER}" #此处做了调整
api_url = "https://dashscope.aliyuncs.com/compatible-mode/v1/embeddings"
api_key = "${env:DASHSCOPE_API_KEY}"

docker-compose.yml文件也要调整

先创建目录:

sudo mkdir -p /dbgpt-data/models
sudo chown -R ubuntu:docker /dbgpt-data

nano docker-compose.yml

# To run current docker compose file, you should prepare the silliconflow api key in your environment.
# SILICONFLOW_API_KEY=${SILICONFLOW_API_KEY} docker compose up -d
services:
  db:
    image: mysql/mysql-server
    environment:
      MYSQL_USER: 'user'
      MYSQL_PASSWORD: 'password'
      MYSQL_ROOT_PASSWORD: 'aa123456'
    ports:
      - 3306:3306
    volumes:
      - dbgpt-myql-db:/var/lib/mysql
      - ./docker/examples/my.cnf:/etc/my.cnf
      - ./docker/examples/sqls:/docker-entrypoint-initdb.d
      - ./assets/schema/dbgpt.sql:/docker-entrypoint-initdb.d/dbgpt.sql
    restart: unless-stopped
    networks:
      - dbgptnet
  webserver:
    image: eosphorosai/dbgpt-openai:latest
    command: dbgpt start webserver --config /app/configs/dbgpt-proxy-tongyi.toml  #此处更换了配置文件,以满足我的需求,使用阿里云上的大模型,此处的默认值是选择硅基流动上的大模型
    environment:
      - LLM_MODEL_PROVIDER
<think>好的,我现在需要帮助用户了解如何基于Docker部署DB-GPT框架GPT-vis可视化框架。首先,我需要回忆一下DB-GPT的相关信息,特别是用户提到的引用内容。用户提供了两个引用,其中引用[1]提到了DB-GPT的GitHub插件仓库,而引用[2]提到了T5和BART模型的特点,可能与DB-GPT的功能相关,但暂时可能不直接影响部署步骤。 首先,我应该确认DB-GPT的官方文档或GitHub仓库是否有Docker部署的指南。根据引用[1],用户提供的GitHub链接是eosphoros-ai/DB-GPT-Plugins,但可能需要访问主仓库,比如eosphoros-ai/DB-GPT,查找相关的部署说明。通常,开源项目会在README或docs目录下提供部署指南,包括Docker的步骤。 接下来,关于GPT-vis可视化框架,可能需要查找它是否作为DB-GPT的一部分,或者是一个独立的项目。如果它是独立的,需要找到其官方部署文档。假设它和DB-GPT集成在一起,可能在同一个仓库中有相关的配置。 用户的需求是Docker部署,因此需要确认项目是否提供了Dockerfile或docker-compose.yml文件。如果存在,部署步骤可能包括克隆仓库、构建镜像、配置环境变量和运行容器。此外,需要注意依赖项如数据库、模型文件的处理,可能需要挂载卷或下载预训练模型。 现在,我需要组织步骤:首先部署DB-GPT,然后处理GPT-vis。需要确保每一步的命令正确,并指导用户如何配置环境变量,比如数据库连接、API密钥等。同时,要提醒用户注意可能遇到的常见问题,如端口冲突、权限问题或模型下载失败。 可能还需要检查是否有额外的插件或组件需要配置,比如引用[1]提到的Multi-Agents & Plugins,是否需要特别启用。此外,用户提到的T5和BART模型可能涉及NLP任务,但部署时可能不需要直接处理这些,除非DB-GPT依赖它们,这时候可能需要下载相应的模型文件。 最后,生成相关问题,需要围绕部署后的配置、优化、应用场景展开,比如如何验证部署成功,如何扩展插件,性能调优等。</think>以下是如何基于Docker部署DB-GPT框架GPT-vis可视化框架的详细步骤: ### 一、DB-GPT框架Docker部署 1. **环境准备** - 安装Docker 20.10+和Docker Compose 2.15+ - 确保服务器配置至少4核CPU/16GB RAM/100GB存储 2. **部署流程** ```bash # 克隆项目仓库 git clone https://github.com/eosphoros-ai/DB-GPT.git cd DB-GPT # 创建环境配置文件 cp .env.template .env # 修改数据库配置和模型路径(重要!) vim .env # 构建Docker镜像 docker compose build --no-cache # 启动服务(包含插件子系统) docker compose up -d ``` 模型文件需通过独立脚本下载到`models`目录[^1],建议提前下载LLaMA-2或Vicuna等支持的模型。 3. **验证部署** ```bash curl http://localhost:5000/api/v1/healthcheck # 预期返回 {"status":"OK"} ``` ### 二、GPT-vis可视化框架部署 1. **独立部署模式** ```bash git clone https://github.com/eosphoros-ai/gpt-vis.git cd gpt-vis/frontend # 构建可视化镜像 docker build -t gpt-vis:latest . # 运行容器(映射到8080端口) docker run -d -p 8080:80 --name gpt-vis gpt-vis ``` 2. **集成部署模式** 在DB-GPT的`docker-compose.yml`中添加: ```yaml services: gpt-vis: image: gpt-vis:latest ports: - "8080:80" depends_on: - dbgpt-web ``` ### 三、关键配置项 | 配置项 | 示例值 | 说明 | |----------------------|-------------------------|-------------------------| | MODEL_SERVER_ADDRESS | http://dbgpt-web:5000 | DB-GPT服务地址 | | MODEL_NAME | vicuna-13b-v1.5 | 与下载模型文件名保持一致 | | PLUGINS_ENABLED | github_plugin,sql_gen | 需要启用的插件列表 |
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值