本文详细介绍了MCP协议及其在AI Agent应用中的搭建方法。MCP作为工具规范化协议,由主机、客户端、服务器和资源层组成,具有标准化集成、动态扩展等优势。文章澄清了小白对MCP的常见误区,并解析了从用户请求到最终响应的12步工作流程,强调MCP仅规范工具管理,Agent应用仍需LLM调用、记忆系统等模块的支持。
什么是MCP?
最简单而言:MCP提供了工具(资源和prompt用的少)的规范化协议。它的核心组件有以下几点:
- MCP主机(Host):发起请求的应用程序(如AI编程助手、IDE插件);
- MCP客户端(Client):与服务器保持1:1连接的通信模块;
- MCP服务器(Server):运行于本地或远程的轻量级程序,负责访问数据或执行工具(如读取本地文件、调用API);提供三种标准类型能力:Resources、Tools、Prompts。
- 资源层:包括本地文件、数据库和远程服务(如云平台API)。本地资源(Local Resources):本地计算机中可供MCP服务器安全访问的资源,如文件、数据库。远程资源(Remote Resources):MCP服务器可以连接到的远程资源,如通过API提供的数据。
为什么选择MCP ?

MCP协议的优势主要有以下几点:
1)标准化集成:统一接口降低开发复杂度
2)动态扩展与实时交互能力【可随时增减工具】
3)生态兼容性与开发效率提升【目前已成为主流协议】
工具侧具体的实现不公开给HOST应用系统,互相独立维护。MCP协议统一,有助于优秀工具的快速集成,在实际开发HOST系统的时候就能快速使用到市面上相对较好的工具(而不需要自己再调用API维护工具函数或者去找到开源代码重新整合到系统中)。
不过实际开发的时候也发现了它的问题,工具和系统互相独立之后,如果需要调整整个系统的准确率,还是免不了可能需要调整工具层。
小白对MCP可能的误区
1)MCP出现之前是不是没有办法调度工具?
不是的。它算是一个通用管理协议,把一个个工具按照一定的规范装在一个量身定做的箱子里。之前也可以进行调度,调度工具关键的点在于大模型识别出使用什么工具以及工具相对应的参数。langchain等在MCP之前就已经支持了工具调度的能力。
2)MCP可以代替function call?
不行,他们是一起工作的关系。如上个问题所述,它只是一个通用协议层。具体函数调用还是需要大模型的支持,而这个协议并不是必须的,在它出现之前就有不少方式,可以直接把工具也放在系统层,直接在系统内调用就可以。
3)MCP能减少调用的token数么?
不行,它只是整合了工具,但实际还是需要把工具参数都发给大模型。整体tokens数消耗相比之前的方式是没有本质区别的,整体依赖于系统的实现。
4)是不是有了MCP,agent应用就能轻而易举搭建了?
不是。MCP只是把工具管理和获取调用这里规范了,但agent应用关键点还有:LLM调用(含function call、prompt工程),记忆系统(RAG,上下文管理),思考和计划系统等。如果想要做好一个agent系统应用,还需要仔细打磨前面提到的模块。
【这里的核心点和踩坑点,后续再梳理文章详细叙述】
如何搭建基于MCP协议的大模型agent应用?

基于MCP协议的大模型Agent应用的工作流程图解。流程始于用户发送请求(步骤1),Host系统将问题及工具列表传递给MCP-Client(步骤2),随后LLM生成工具调用参数(步骤3)并经审批确认(步骤4-5)。MCP-Server Tool执行具体操作(步骤6-7)后,结果通过多级传递(步骤8-10)最终由LLM生成响应(步骤11)返回给用户(步骤12)。整个架构突出了MCP协议在协调用户、主机系统、大语言模型和工具服务之间的核心枢纽作用,体现了模块化分工与安全审批机制的设计理念。
1)User→Host系统
用户向HOST系统发送一个需要处理的问题(自然语言)
2) Host系统→MCP-Client
Host系统将用户原始问题(自然语言)和可调用工具列表(如API、数据库接口等)打包发送至MCP-Client,触发工具规划流程。
3) MCP-Client→LLM
MCP-Client请求LLM分析用户问题,生成结构化工具调用方案(包括工具选择、输入参数等),例如解析"查询北京天气"为调用WeatherAPI的参数{location: “北京”}。
4-5) MCP-Client→Host系统(审批闭环)
MCP-Client提交工具调用申请至Host系统,触发安全审批(如权限校验/风险过滤),通过后返回确认执行指令,确保操作合规性。
6) Host系统→MCP-Server Tool
Host系统向MCP-Server Tool发送工具执行命令(如REST API调用指令),携带LLM生成的标准化参数。
7) MCP-Server Tool执行
工具服务执行具体操作(如调用天气API、数据库查询等),生成原始执行结果(如JSON格式的天气数据)。
8-10) 结果逆向传递链
MCP-Server Tool→Host系统→MCP-Client→LLM,逐层返回工具执行结果,数据经校验和格式化传递,保持上下文一致性。
11) LLM生成最终响应
LLM将工具返回的原始数据转化为用户友好的自然语言(如"北京今日晴,25°C"),并补充逻辑推理或多工具结果融合。
12) Host系统→User
Host系统将LLM生成的最终响应返回给用户,完成闭环。流程中MCP协议通过标准化接口和审批机制,确保多主体间安全、高效的协同。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》,下方扫码获取~

① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

以上资料如何领取?

为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!


这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


以上全套大模型资料如何领取?

1554

被折叠的 条评论
为什么被折叠?



