随着 AI 大模型技术的爆发式增长,从 2022 年 ChatGPT 掀起行业革命,到国内大模型阵营百花齐放,再到 DeepSeek 等开源模型打破 “高成本壁垒”,如今 AI 已从技术圈走向全民普及。但热闹背后,一个核心痛点始终制约着大模型的实用价值:多数大模型本质上只是 “聊天助手”,能说会道却 “手无缚鸡之力” —— 它们无法直接访问本地文件、调用外部系统,更难以完成需要落地执行的具体任务。而 MCP 协议的出现,正是为大模型装上 “双手”,让 AI 从 “语言交互” 迈向 “行动落地”。
一、为什么 MCP 是大模型的 “必备技能”?
大模型就像一个智商超群但缺乏行动能力的 “大脑”:它能理解你的需求、给出方案,但无法主动获取外部数据、操作本地资源。比如:
- 你想让 AI 分析电脑里的 Excel 销售数据,却只能手动复制粘贴内容,效率极低;
- 你希望 AI 查询公司内部系统的客户信息,却因模型无法对接私有接口而只能作罢;
- 你需要 AI 根据实时天气规划出行路线,却发现模型的知识库停留在训练数据截止日期,无法获取最新信息。
这些场景的核心矛盾的是:大模型的 “认知能力” 与 “执行能力” 严重脱节。而 MCP(Model Context Protocol,模型上下文协议)恰好解决了这个问题 —— 它就像一套统一的 “接口标准”,让大模型能够无缝对接本地文件、私有系统、外部 API 等各类资源,真正实现 “所思即所行”。
对于开发者和从业者而言,MCP 的价值更显关键:当前大模型岗位竞争激烈,仅掌握 API 调用的 “浅层技能” 早已无法满足企业需求。招聘市场上,能熟练运用 MCP 实现模型与业务系统集成的人才,薪资普遍比普通 AI 从业者高出 30%-50%。无论是零基础想入行的新手,还是想提升竞争力的程序员,掌握 MCP 都是突破职业瓶颈的重要抓手。
2、什么是MCP
2024年11月,Anthropic公司发布了MCP(Model Context Protocol)协议,翻译过来就是:模型上下文协议,注意它是一种协议,可以理解为一种规范,比如手机的充电头TOP-C接口一样,只要充电器厂商使用了这种接口进行制作,手机就能够充电,为了方便手机充电,国内的绝大多数手机充电口已经统一为TOP-C接口,除了苹果。
MCP的出现成功让大模型提供了访问外部服务的机会,从靠嘴巴改变世界 -> 靠双手和嘴巴改变世界。
这时候如果懂一点编程的人会想到,这个和方法调用(Function Calling)有什么区别?
这两种技术都是增强AI大语言模型与外界的交互能力,但是MCP不止可以增强AI模型,还可以连接其他的应用系统。
| 类别 | MCP | Function Calling |
|---|---|---|
| 性质 | 协议 | 功能 |
| 范围 | 通用 | 特定场景 |
| 目标 | 统一接口,实现交互操作 | 扩展模型能力 |
| 实现 | 基于标准协议 | 依赖特定模型实现 |
| 开发复杂度 | 低:通过统一的协议开发 | 高:需要为每个任务开发函数 |
| 复用性 | 高:一次开发,多场景使用 | 低:函数通常是特定任务设计 |
| 灵活性 | 高:支持动态适配和扩展 | 低:功能扩展需要额外开发 |
| 场景场景 | 复杂场景,如数据访问和整合 | 简单任务,如数据查询 |
3、MCP核心概念
3.1 架构模式和工作原理

| 架构组件 | 描述 |
|---|---|
| MCP Host | 通过 MCP 访问数据的 Claude Desktop、IDE 、 AI 工具或自己开发应用等程序 |
| MCP Clients | 与服务器保持 1:1 连接的协议客户端 |
| MCP Servers | 轻量级程序,每个程序都通过标准化的 Model Context Protocol 公开特定功能 |
| Local Data Sources | MCP 服务器可以安全访问的计算机文件、数据库和服务 |
| Remote Services | MCP 服务器可以连接到的 Internet 上可用的外部系统(例如,通过 API) |
MCP协议将大模型和资源之间划分为了三个部分:客户端、服务端和资源。
下面我们用一个MCP的工作流程来解释:
- 初始化连接:客户端向服务端发送连接请求,建立通信通道。
- 发送请求:客户端根据需求构建请求消息,发送给服务端。
- 处理请求:服务端接收到消息后,解析消息,执行相应的操作,比如:查询数据,读写文件等。
- 返回结果:服务端将处理结果封装成响应结果,发送给客户端。
- 断开连接:任务完成后,客户端主动关闭连接或等待服务端连接超时。
举一个荔枝:
我们想让大模型查看今天北京的天气怎么样?
俩角色:大模型(客户端)- 高德天气(服务端)
提前告知大模型,你可以通过高德天气查询天气信息哦,当用户给大模型发送查看北京的天气,大模型 就会去 调用 高德天气,高德天气去查询今天北京的天气信息,查询完成后,把天气信息返回给大模型,最后将信息进行提炼,优化响应给到我们相关的天气信息。
3.2 MCP Client
MCP Client 充当 LLM 和 MCP Server 之间的桥梁,MCP Client 的工作流程如下:
- MCP Client 首先从 MCP Server 获取可用的工具列表。将用户的查询连同工具描述通过 function calling 一起发送给 LLM。
- LLM 决定是否需要使用工具以及使用哪些工具。如果需要使用工具,MCP Client 会通过 MCP Server 执行相应的工具调用。工具调用的结果会被发送回 LLM。
- LLM 基于所有信息生成自然语言响应。最后将响应展示给用户。
3.3 MCP Server
MCP Server 是 MCP 架构中的关键组件,它可以提供 3 种主要类型的功能:
- 资源(Resources):类似文件的数据,可以被客户端读取,如 API 响应或文件内容。
- 工具(Tools):可以被 LLM 调用的函数(需要用户批准)。
- 提示(Prompts):预先编写的模板,帮助用户完成特定任务。
这些功能使 MCP server 能够为 AI 应用提供丰富的上下文信息和操作能力,从而增强 LLM 的实用性和灵活性。
下面是全网比较全的MCP服务端资源,可以直接使用,提供给大家:
国外MCP服务器:https://mcpservers.org/
国内MCP服务器:https://mcpmarket.com/zh
阿里云百炼MCP:https://bailian.console.aliyun.com/?spm=5176.29619931.J__Z58Z6CX7MY__Ll8p1ZOR.1.3b24521cr2ypKX&tab=mcp#/mcp-market
Corsor专属MCP:https://cursor.directory/mcp
Smithery:https://smithery.ai/
MCP综合性平台:https://www.pulsemcp.com/
Awesome MCP:https://mcp.so/
专注MCP服务器:https://mcpserverhub.com/
魔搭社区MCP:https://www.modelscope.cn/mcp
4、MCP常见案例
4.1 通过联网搜索向AI提供最新信息

常见的 AI 助手采用通过联网搜索获取实时信息。当用户开启联网搜索时,助手先将用户的请求发送至搜索引擎,再将返回内容与用户输入一起提供给大模型,最终生成回答。搜索引擎在此作为实时信息源,为大语言模型提供额外的上下文。
4.2 通过API向AI提供自有系统数据

如果希望 AI 能提供行业内部信息、或者研发的自有系统内的信息,AI 联网搜索的效果就很不好,甚至无法实现。用户可以自行搭建 AI 代理,将自有系统的数据通过 API 的形式接入 AI 助手,为大语言模型补充提供丰富的上下文信息。
4.3 通过MCP服务器向AI提供上下文信息

MCP 协议解决了 AI 大模型与数据源集成碎片化的问题,提供统一标准,让开发者无需为每个数据源和 AI 助手单独开发连接器。通过 MCP,数据源和 AI 工具可建立安全双向连接,使 AI 在不同工具和数据集间流畅协作,实现更可持续的架构。
5、手动实践MCP插件
5.1 安装Cherry Studio 客户端
请首先安装 1.2.9 版本及以上的 Cherry Studio 客户端,并确保已通过配置合适的模型API,能在Cherry Studio里使用模型进行基本对话,
https://www.cherry-ai.com/download
5.2 在魔搭社区MCP搜索MCP服务
ModelScope通过 MCP广场 为广大开发者提供了海量的MCP服务。可以直接在ModelScope平台上实现托管,供包括Cherry-Studio在内的不同客户端直接集成使用。

5.3 在Cherry Studio中配置ModelScope MCP的同步
在Cherry Studio启用MCP服务需要在「设置」中添加可用的MCP服务配置。可以前往“设置-MCP服务器-同步服务器”快速同步ModelScope MCP服务。

进入后可以看到 CherryStudio默认选中 ModelScope 作为 MCP 服务提供商。Cherry Studio 与ModelScope(魔搭) 达成官方合作,只需要简单的输入您的魔搭 API 令牌,即可一键同步魔搭账号下所有已经配置托管的 MCP 服务配置。

其中 API 令牌可以通过访问“魔搭首页-访问令牌”页面获取。

在获取ModelScope API令牌后,粘贴到步骤3的空格中,并点击「同步」按钮。

可以看到所有已经配置连接的魔搭Hosted MCP服务,都已经同步在Cherry Studio可用MCP服务器列表中。

然后可以愉快地在 Cherry Studio 中体验 AI 助手调用MCP服务完成任务~
5.4 在Cherry Studio中结合模型与MCP的使用
同步MCP服务后,可以在Cherry Studio客户端AI助手消息输入框看到新增的“MCP服务器”图标。

点击即可查看,通过之前同步操作已导入到Cherry Studio中,可直接使用的MCP服务列表。可从这个列表中,多选本次对话期望启用的MCP。

5.5 效果示例
以Fetch网页内容提取 MCP为例,可以看到当我们要求 AI 助手获取相关网页信息时,AI助手调用了“Fetch网页内容获取”MCP服务的工具来完成任务。

同样的,如果其他MCP已经被启用,也可以被AI助手自由调用。例如以下例子,就展示了使用高德地图MCP 来完成完成路线规划。

6、最后总结
纵观人类千年发展历史:从石器时代、铁器时代、蒸汽时代、电气时代、互联网时代,到现在的AI时代,每一个时代都是人类的一个转折点,每个时代的兴起不同职业的从业者都有滞后性,只有不断学习,才能跟上时代发展。
人工智能会取代大多数低级枯燥的工作,当然也会诞生一些新的工种,就像汽车发明之后,马车夫失业,汽车司机上岗,如果只是一味的守着马车,那么不久的将来可能会被时代淘汰。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

585

被折叠的 条评论
为什么被折叠?



