模型上下文协议(MCP)本身提供的是一套标准化的通信规则和接口,简化了客户端应用的开发。
MCP 实际上是一套规范,官方把整套协议分成「传输层 + 协议层 + 功能层」三大块,并对初始化握手、能力协商、数据/工具暴露、安全约束等均给出了约束性 JSON-Schema。
基于 JSON-RPC 2.0 的开放协议,目标是像 USB-C 一样为 LLM 应用提供统一“插槽”。它定义三方角色——Host(应用)/Client(适配层)/Server(能力提供者),通过标准消息把 资源、工具、提示模板 等上下文按需送进 LLM,同时保留“人-机共管”审批流程,实现安全、可组合的本地或远程代理体系。
但是,需要注意,不要连接不信任的 server,MCP 没有在数据安全上提供任何保障。
下面我们可以实现一个最简的 MCP 服务。
0 先决条件
| 软件 |
版本建议 |
作用 |
|---|---|---|
| 操作系统 |
Windows 10/11、macOS 13+ 或任何较新的 Linux |
仅需能运行 Ollama |
| Ollama |
≥ 0.1.34 |
本地大语言模型后端 |
| Python |
3.10 – 3.12 |
运行 FastAPI 服务 |
| Git |
最新 </ |

最低0.47元/天 解锁文章
1346

被折叠的 条评论
为什么被折叠?



