大模型Agent + MCP 在 ChatBI 问数场景下的探索实践

目录

1. AI界的"万能钥匙":MCP如何让大模型连接万物?

2. 常见的MCP应用场景 

3. 案例用到的表结构

4. 开始测试案例


1. AI界的"万能钥匙":MCP如何让大模型连接万物?

自从去年11月Anthropic公司(Claude的创造者)推出MCP协议后,正以惊人的速度重塑AI与数字世界的交互方式,如果说ChatGPT打开了智能对话的大门,那么MCP则正在为AI装上"操作现实世界的双手"。或许在不久的将来,这一技术将会改变AI领域的游戏规则。

如上图所示,简单来说MCP就像是AI的"万能钥匙",旨在让大型语言模型(LLM)与外部工具和数据源实现无缝通信,让它能安全、可控地访问服务器上的文件、应用系统等。

上面的文字描述,看着是不是有些迷迷糊糊的,如何真正理解并应用MCP呢,接下来我将用一个简单的例子(数据库CRUD操作级别)来形象的描述一下。


2. 常见的MCP应用场景 

先看一下mcp常用的几个场景:
- 访问私域数据库(CRUD)
- 访问三方工具(访问高德地图、天气工具)
- 调用现有系统API,实现大模型与已有系统的互联互通(例如调用公司的OA接口,自动实现OA发文的自动发布)

现在我们来介绍一下实践案例:如何基于大模型+MCP技术来实现ChatBI问数的功能。


3. 案例用到的表结构

CREATE TABLE `sales` (
	 `sale_id` BIGINT NOT NULL AUTO_INCREMENT COMMENT '销售单ID(主键)',
	 `order_no` VARCHAR(32) NOT NULL COMMENT '销售订单编号',
	 `customer_id` BIGINT NOT NULL COMMENT '客户ID',
	 `customer_name` VARCHAR(100) COMMENT '客户名称',
	 `salesperson_id` BIGINT NOT NULL COMMENT '销售人员ID',
	 `salesperson_name` VARCHAR(50) COMMENT '销售人员姓名',
	 `sale_date` DATETIME NOT NULL COMMENT '销售日期时间',
	 `total_amount` DECIMAL(12,2) NOT NULL DEFAULT 0 COMMENT '订单总金额',
	 `discount_amount` DECIMAL(12,2) DEFAULT 0 COMMENT '折扣金额',
	 `actual_amount` DECIMAL(12,2) NOT NULL COMMENT '实收金额',
	 `payment_method` TINYINT COMMENT '支付方式:1现金 2信用卡 3支付宝 4微信 5银行转账',
	 `payment_status` TINYINT NOT NULL DEFAULT 0 COMMENT '支付状态:0未支付 1部分支付 2已支付 3已退款',
	 `delivery_status` TINYINT DEFAULT 0 COMMENT '发货状态:0未发货 1部分发货 2已发货 3已签收',
	 `invoice_type` TINYINT COMMENT '发票类型:1普通发票 2增值税发票',
	 `invoice_title` VARCHAR(100) COMMENT '发票抬头',
	 `invoice_no` VARCHAR(50) COMMENT '发票号码',
	 `remark` VARCHAR(500) COMMENT '备注',
	 `source_channel` TINYINT COMMENT '订单来源:1线下 2官网 3APP 4小程序 5第三方平台',
	 `warehouse_id` INT COMMENT '发货仓库ID',
	 `logistics_company` VARCHAR(50) COMMENT '物流公司',
	 `tracking_no` VARCHAR(50) COMMENT '物流单号',
	 `created_by` BIGINT COMMENT '创建人ID',
	 `created_time` DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
	 `updated_by` BIGINT COMMENT '更新人ID',
	 `updated_time` DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
	 `is_deleted` TINYINT NOT NULL DEFAULT 0 COMMENT '是否删除:0否 1是',
	 PRIMARY KEY (`sale_id`),
	 UNIQUE KEY `uk_order_no` (`order_no`),
	 KEY `idx_customer_id` (`customer_id`),
	 KEY `idx_salesperson_id` (`salesperson_id`),
	 KEY `idx_sale_date` (`sale_date`),
	 KEY `idx_payment_status` (`payment_status`),
	 KEY `idx_delivery_status` (`delivery_status`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='销售订单主表';

4. 开始测试案例

我们使用开发好的ChatBI-MCP-Server,利用DeepSeek大模型来测试一下查数效果,事先准备好2个问题:

(1)7月份订单总金额

(2)哪个销售员的订单金额最大

开始询问:查询7月份订单总金额

观察查询效果,可以清晰地看到大模型自己在将任务拆解成几个步骤:

(1)首先查询数据库中所有的表

(2)找到可能包含订单数据的表

(3)查看相关表的结构和数据样例

(4)最终执行查询7月份订单总金额的SQL

执行效果如下图所示:

在首次对话过程中,我们看到运行时遇到了问题,先来看一下运行的日志:

{
  "params": {
    "dbName": "order_db"
  },
  "response": {
    "content": [
      {
        "type": "text",
        "text": "StatementCallback; bad SQL grammar [SELECT TABLE_NAME , TABLE_COMMENT, TABLE_SCHEMA FROM information_schema.tables where table_schema = order_db]"
      }
    ],
    "isError": true
  }
}


我们通过观察日志,看到大模型在进行用户意图识别过程中,执行查询数据库所有的表时,是从order_db中来查询的(这个库名是大模型幻觉杜撰出来的),而我们的数据库中只有sales库,下面我们给大模型纠正一下,继续问答:从sales库中查询7月份订单总金额

从下图的执行结果我们可以看到,本论问答结果符合预期:

我们不妨仔细观察一下各个步骤的执行细节,来帮助我们理解大模型是如何通过MCP来与数据库进行交互的。

(1)判断sales中有哪些表

从下图中可以看到大模型的推理执行过程,在这一步中,可以看到大模型调用了mcp服务,来查看表中有哪些表

(2)查询表结构

根据查询结果,sales库中有一个表叫sales,表注释为"销售订单主表"。接下来我需要查看这个表的结构,了解它包含哪些字段。

(3)查询表数据-获取最终结果

从表结构中可以看到,sales表包含sale_date(销售日期时间)和total_amount(订单总金额)字段。现在我需要编写SQL查询7月份的订单总金额。

怎么样,我们可以看到大模型的执行思路很清晰,他在识别出用户意图后,进行自主决策,并规划出一系列执行步骤,最终获得用户关心的数据。我们事先并没有告诉大模型数据库中有哪些表,表中有哪些字段,是不是感到有点惊艳。

我们再试着问他第二个问题:哪个销售员的订单金额最大。同样大模型给出了正确的执行结果。

提示:在问答的过程中,遇到问题也很正常,我们在下一轮对话中,引导大模型即可,大模型根据历史会话记录和提示词,会进行自主决策的

我们在以往开发AI Agent,实现ChatBI问数功能时,以往的做法是提前把用到的表结构来创建知识库、或者把表结构作为提示词喂给大模型,来帮助大模型理解表结构。而在本文介绍的案例中,我们采用了一种新的玩法,即利用大模型+MCP技术来实现。

以上是关于大模型+MCP在ChatBI问数场景下的一个探索实践,在案例中,我们使用MCP技术,打通了大模型访问私域数据的安全通路,一些初浅的思考,希望可以给大家带来不同的实现思路。

欢迎WX搜索关注公众号  南and北 ,获得更多内容,留言交流!

<think>好的,我现在需要解释一下大模型MCP。首先,我要明确MCP是什么的缩写。在机器学习或者统计学中,常见的缩写可能有多种,比如Model Complexity Penalty(模型复杂度惩罚)、Monotone Concave Penalty(单调凹惩罚)、或者Minimum Covariance Determinant(最小协方差行列式)等等。根据上下文,大模型通常涉及模型选择和正则化,所以可能是指Model Complexity Penalty或者Monotone Concave Penalty。 接下来,我需要确认哪个更相关。大模型(如大型语言模型)在训练时需要考虑过拟合题,通常会使用正则化方法来控制模型复杂度。Model Complexity Penalty(模型复杂度惩罚)就是在模型选择准则(如AIC、BIC)中加入对模型复杂度的惩罚项,防止过拟合。而Monotone Concave Penalty更多出现在高维统计中的变量选择方法,比如SCAD(Smoothly Clipped Absolute Deviation)惩罚,属于非凸正则化的一种。 不过,用户提到的是大模型MCP,可能是指正则化方法中的MCP,即Minimax Concave Penalty(极小极大凹惩罚),由华裔统计学家范剑青提出。MCP是一种用于变量选择的正则化方法,能够平衡Lasso的偏差题,同时具有Oracle性质,即当真实模型稀疏时,能够以高概率选择正确的模型并给出参的一致估计。 需要进一步验证这个术语的正确性。查阅相关文献,MCP确实在正则化方法中被广泛讨论,尤其在处理高维据时,用于解决Lasso在某些情况下的不足。因此,用户可能指的是Minimax Concave Penalty。 现在需要组织解释,包括MCP的定义、学形式、优点以及在大模型中的应用。需要注意使用正确的学公式,使用LaTeX格式,并确保解释清晰易懂,适合不同背景的读者。</think>大模型中的**MCP**通常指**Minimax Concave Penalty(极小极大凹惩罚)**,是一种用于高维据建模的正则化方法,由统计学家范剑青提出。它在变量选择中表现出色,能有效平衡偏差和控制模型复杂度。 --- ### **核心特性** 1. **学形式** MCP的惩罚函定义为: $$ P_{\lambda, \gamma}(\beta) = \lambda \int_0^{|\beta|} \left(1 - \frac{x}{\gamma\lambda}\right)_+ dx $$ - $\lambda$:正则化强度参,控制稀疏程度 - $\gamma$:调节凹度的参($\gamma > 1$) - $(x)_+ = \max(x,0)$ 2. **与Lasso对比** - **Lasso**:惩罚项为$\lambda|\beta|$,对较大系施加恒定惩罚,导致估计有偏。 - **MCP**:对较小系施加类似Lasso的惩罚,但当$|\beta| > \gamma\lambda$时惩罚归零,避免过度压缩大系,减少偏差。 3. **优势** - **Oracle性质**:当真实模型稀疏时,能以高概率正确选择变量并给出无偏估计。 - **抗噪声能力强**:在处理高维据(特征>>样本量)时表现稳健。 - **解路径连续性**:调整$\lambda$时系变化连续,模型更稳定。 --- ### **在大模型中的应用** 1. **特征选择** 在训练大模型(如GPT、BERT)时,MCP可用于自动筛选重要特征或神经元,降低计算开销。 2. **防止过拟合** 通过惩罚复杂模型,MCP帮助模型在保持高性能的同时减少参冗余,提升泛化能力。 3. **稀疏训练** 与剪枝技术结合,MCP可诱导权重稀疏化,适合部署到资源受限的设备。 --- ### **示例对比** 假设真实参$\beta=3$,$\lambda=1$,$\gamma=3$: - **Lasso估计**:压缩为$\beta_{\text{lasso}}=2$(有偏) - **MCP估计**:保持$\beta_{\text{mcp}}=3$(无偏) 通过这种机制,MCP大模型优化中实现了更精确的参估计和更高效的模型结构。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值