MCP理论指南

简介

Model Context Protocol (模型上下文协议),简称MCP,MCP是一种协议,用于LLM与外部拓展资源交互的协议

背景

现在关于LLM的发展非常迅速,尤其在推出Agent后,LLM逐渐可以为我们的生活服务,那对于Agent调用外部服务来说,每个厂商的Agent大相径庭,很难做到统一,这时就需要有一个规范去约束,这时候MCP就站了出来,大喊一声:我可以。
经过上面的介绍,那MCP主要做的事情就是有一个统一的规范去规范calling function及LLM外部的资源管理

组成

MCP主要由三部分组成:

  1. Host:主机通常是存放llm的地方
  2. 客户端:接收用户问题及充当Host和服务端的中间层
  3. 服务端:在服务端这里定义了llm可用的资源,这些资源包括但不限于工具、prompts、file等
    了解完这三部分是做什么的后,我们就可以看一下MCP协议是如何工作的

工作流程

在这里插入图片描述
上面是一张官方的流程图,由这张流程图我看可以看到MCP工作的流程

工作流程:
  1. 用户把问题输入到client
  2. client拿到问题后会去server获取可用的资源,一并发给llm处理
  3. llm拿到client发的数据后,进行判断看用户的问题需要使用到哪些资源,并通知client
  4. client在拿到要使用的资源后就会通知server去调用相应的资源,并返回处理结果
  5. client把处理结果连同上下文一并发给llm,生成最终的响应

文字描述可能不太直接,我们直接看图,本图可以直观的反映出上述描述的流程。
在这里插入图片描述

MCP+Agent+RAG

  • Agent:一种能够感知、决策和行动以实现特定目标的自主AI系统。简单来说就是能够根据你的输入进行独立的思考,制定决策并执行行动的智能体
  • RAG:将信息检索与文本生成相结合,创造更准确、信息更充分的回应。简单来说就是让模型先查资料,然后结合查到的资料来回答你的问题,让模型能够更好的获取到最新的信息

如果这三者结合,让我们不需要动手就可以让LLM给你规划旅游线路成为现实,可以很好的方便人类的生活,期待这一天的到来。

为什么MCP会有那么大的反响

我认为在AI发展的过程中,势必要出现很多的规范,这样才能变成一套体系,并且可以很有效的提高效率、降低学习成本,就如同MCP一样,我们不需要知道去看llm的calling function及外部的那些各个厂家的规范,我们只需要通过MCP协议定义好我们的服务就可以很方便的接入到任何一个MCP服务器,这就是一个降本增效的过程。
以上是我个人的见解,如果有不同的见解可以共同讨论。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值