大模型MCP之小试牛刀

1.什么是MCP

MCP (Model Context Protocol) 是一种协议,旨在让 AI 模型能够更智能地理解和利用当前工作环境中的上下文信息。当您与 AI 对话时,支持 MCP 的客户端(或称为“载体”)会自动收集相关的上下文信息(例如当前打开的文件、选中的代码片段、项目结构等),并将其提供给 AI 模型。

早期使用大模型时,一个常见的挑战是如何有效地提供上下文。例如,如果您想让 AI 修改代码,仅仅告诉它“请修改我的代码”是远远不够的。一个更有效的方法是,将相关的头文件 (.h)、源文件 (.c, .cpp 等) 以及描述业务逻辑的代码片段都提供给 AI。这样,AI 才能更准确地理解您的意图并生成高质量的代码。

2.如何使用MCP

2.1:准备大模型 API Key

可以选择deepseek,硅基流动等,我这里选择的是deepseek

DeepSeek

充值之后新增API keys

创建好之后,复制对应的key

测试key是否正常

curl https://api.deepseek.com/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <DeepSeek API Key>" \
  -d '{
        "model": "deepseek-chat",
        "messages": [
          {"role": "system", "content": "You are a helpful assistant."},
          {"role": "user", "content": "Hello!"}
        ],
        "stream": false
      }'

 将<DeepSeek API Key>换成自己的key

测试请求响应如下则说明key可用

  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100   705    0   484  100   221    107     48  0:00:04  0:00:04 --:--:--   156{"id":"9ffa-44c3-bf4a-785715bd51c5","object":"chat.completion","created":1747105773,"model":"deepseek-chat","choices":[{"index":0,"message":{"role":"assistant","content":"Hello! 馃槉 How can I assist you today?"},"logprobs":null,"finish_reason":"stop"}],"usage":{"prompt_tokens":11,"completion_tokens":11,"total_tokens":22,"prompt_tokens_details":{"cached_tokens":0},"prompt_cache_hit_tokens":0,"prompt_cache_miss_tokens":11},"system_fingerprint":"fp_8802369eaa_prod0425fp8"}

2.2  vscode中安装插件

打开vscode,选择Cline安装

然后打开cline,将deepseek的key值添加进去

3.3 测试效果

需求:用Python写一个99乘法表
结果:会自动分析需求,创建文件,自动运行出来结果之后,才算完成任务,提示用户保存代码等等

好了,今天的学习就到这里了

有兴趣可以加w,一起学习

### 大模型 MCP 协议的技术细节与实现 #### 什么是 MCPMCP 的全称是 **Model Context Protocol**,其核心目标在于解决大语言模型(LLM)或其他人工智能模型在运行过程中所依赖的上下文数据获取问题[^2]。通过 MCP 协议,AI 能够与外部数据源和工具实现无缝集成,从而动态调整自身的上下文环境,生成更加高质量、与任务高度相关的响应[^1]。 #### 技术细节概述 尽管目前公开的资料中尚未详细描述 MCP 的具体技术实现方式,但从已知信息可以推测出以下几个关键点: 1. **上下文扩展能力** MCP 可能设计了一种机制来实时访问外部数据库或网络资源,以便为 AI 提供最新的背景信息。这种功能使得模型能够超越静态训练数据集的局限性,适应不断变化的真实世界需求。 2. **智能体协作支持** 在某些应用场景下,多个智能体可能需要协同工作完成复杂的任务。MCP 或许提供了标准化接口,允许不同类型的智能体共享信息并协调行动[^3]。 3. **灵活性与可扩展性** 基于 “less structure, more intelligence” 的设计理念,MCP 很可能会采用一种轻量级但高效的框架结构,既保证系统的稳定性又保留足够的自由度让开发者自定义行为逻辑。 4. **流式处理优化** 如果参考类似的 Java 库如 LangChain4j 中的设计模式,则可以猜测 MCP 内部也可能存在针对不同类型请求的不同处理器类(例如类似于 `StreamingChatLanguageModel` 这样的组件),专门负责高效管理长时间对话中的增量更新操作[^4]。 #### 实现层面的可能性分析 虽然官方文档缺乏详尽说明,但是基于上述理论基础以及行业内的常见做法,以下是几个潜在的技术方向: - 使用 RESTful API 或 GraphQL 查询语句连接远程服务器上的海量知识库; - 利用缓存策略减少重复调用带来的延迟开销; - 结合事件驱动架构快速响应突发性的高并发流量冲击; ```python import requests def fetch_context_via_mcp(query_string): url = "https://example.com/mcp-endpoint" headers = {"Authorization": "Bearer YOUR_ACCESS_TOKEN"} response = requests.post(url, json={"query": query_string}, headers=headers) if response.status_code == 200: return response.json() else: raise Exception(f"MCP request failed with status {response.status_code}") ``` 此代码片段展示了一个简单的例子,演示如何向假设存在的 MCP 终端发送 POST 请求以检索特定主题的相关材料。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值