AI编程:最疯狂的MCP服务器你一定要试试

我还记得我第一次听说MCP(模型上下文协议)的时候,我心想:

“哈?又一个花里胡哨的缩写,这个世界已经快被这些缩写淹没了!”

但当我意识到MCP就像AI界的通用连接器——就像USB-C之于手机和笔记本电脑——我瞬间兴奋了。

再也不用折腾那些只能在某个地方工作的插件或奇怪的脚本了。

有了MCP,我可以轻松连接新工具,一下子搞定。

感觉就像是在打造一支专属的AI梦之队!

在这篇文章里,我想简单聊聊我是怎么在Cline、WindSurf,有时候还有Cursor这些工具里使用MCP服务器的。

我会用最简单的方式解释,一点都不会拿术语砸你。

另外,我还会提到一个我打算在自己电脑上尝试的个人案例(等我实际测试完再补充结果)。

那我们开始吧!

什么是MCP,我为什么要关心?

先从基础的讲起:MCP是模型上下文协议(Model Context Protocol)的缩写,这是Anthropic开发的一个开放标准。

用人话来说,就是有人想出了一个好点子,搞了个框架,让AI工具能顺畅沟通,不再闹脾气。

所以,现在如果我们想让某个工具做点事——比如读取Figma设计文件或者管理数据库——就不用每次都特意开发一个专用适配器了。只要我们的AI主界面支持MCP协议,就能直接把这个工具接入进去。

这就像插U盘一样:只要接口是USB,它就能用。

那么,MCP在哪能见到?

MCP并不是藏在某个神秘的开发者实验室里。

事实上,它已经出现在各种AI工具里了,比如Cline、WindSurf、Cursor等等。

你甚至可能已经在Cline里看到一个新功能:“MCP Marketplace”市场。

那基本上是一个可以浏览和安装各种服务器的地方——这些服务器就像AI插件,可以执行特定的任务。

还有一些第三方的仓库或者目录,你可以直接复制一条命令,粘贴到AI工具的配置文件里,然后立刻激活新的功能。

这就是让我忍不住感叹——

“哇,终于来了!”

因为再也不用去折腾那些乱七八糟的脚本,或者一步步跟着复杂的教程才能让某个功能跑起来了。

我现在只要打开MCP的配置文件,粘贴一个链接,就能直接用上。

我最喜欢的MCP服务器

这些年来,我试过不少MCP服务器,其中有些还属于实验性阶段。但有几个我一直在用。

Sequential Thinker(序列思考)

一开始,我以为这东西只是个噱头:

“我为什么需要一个AI按步骤思考?”

但其实,如果你用的是本地模型,或者有时候AI会犯迷糊,这个插件能让它把推理过程拆成更小的步骤。

如果你曾经遇到过AI说:

“让我想想……其实,等等,我再检查一下”

那这个插件就像是更有条理的版本。

我主要在Cline和WindSurf里用它,特别是处理复杂的编码任务时。

虽然它不总是完美的,但确实能帮我避免一些AI突然跳逻辑的问题。

这里是这个MCP的npx代码:

{

"mcpServers": {

"sequential-thinking": {

"command": "npx",

"args": [

"-y",

"@modelcontextprotocol/server-sequential-thinking"

]

}

}

}

你可以在这个页面找到关于这个MCP的所有信息:

github.com/modelcontextprotocol/servers/tree/main/src/sequentialthinking

Obsidian 集成

我是个狂热的笔记爱好者。

我几乎把所有东西都存进 Obsidian Vault——包括待办事项、写作灵感、头脑风暴的想法,甚至随机的购物清单。

Obsidian MCP 服务器是一个真正的改变者,因为我可以直接在 AI 工具(比如 Cline)里说:

“嘿,把‘买狗粮’这个任务标记为已完成。”

然后它就会自动更新我的 Obsidian 笔记!

听起来可能是个小功能,但这种无缝的工作流意味着我不用在不同的应用之间来回切换。

如果你更喜欢 Jira 或 Notion,也有对应的 MCP 服务器可用。

配置 Obsidian MCP 服务器环境有两种方式。

第一种方式(推荐): 在服务器配置文件中添加 API Key:

{

"mcp-obsidian": {

"command": "uvx",

"args": [

"mcp-obsidian"

],

"env": {

"OBSIDIAN_API_KEY": "<your_api_key_here>"

}

}

}

第二种方式: 在工作目录下创建一个 .env 文件,并添加以下变量:

OBSIDIAN_API_KEY=your_api_key_here

这个 API Key 可以在 Obsidian 插件的配置里找到。

你可以在这里找到更多关于 Obsidian MCP 服务器的信息:

https://github.com/MarkusPfundstein/mcp-obsidian

E2B MCP

这个 MCP 服务器适合那些喜欢在安全环境中测试代码的人。

你可以把它想象成一个小泡泡,你的代码可以在里面运行,而不会影响你的主系统。

我发现它对测试新的 Node 模块、玩转 Python 库,或者运行示例脚本来确认是否可行特别有用。

如果你讨厌折腾 Docker 或虚拟机的麻烦,E2B Sandbox 会是你的好帮手。

你可以用 Python 或 JavaScript 来配置它。

Python 配置方法:

安装依赖:

uv install

然后在 Claude Desktop 里添加服务器配置:

MacOS 路径:

~/Library/Application Support/Claude/claude_desktop_config.json

Windows 路径:

%APPDATA%/Claude/claude_desktop_config.json

配置文件内容示例:

{

"mcpServers": {

"e2b-mcp-server": {

"command": "uvx",

"args": ["e2b-mcp-server"],

"env": { "E2B_API_KEY": "${e2bApiKey}" }

}

}

}

你可以在这里找到更多关于 E2B MCP 服务器的信息:

github.com/e2b-dev/mcp-server?tab=readme-ov-file

Replicate MCP

如果你曾经想要直接在项目文件夹里生成 AI 图片,那么 Replicate 的服务器会是个不错的选择。

我有时候会快速生成一个博客横幅的设计概念,或者测试 AI 如何为我正在写的文章生成随机插图。

这样,我不用从网上下载图片或者折腾第三方网站,所有东西都可以在一个环境里完成。

这比想象中要方便得多。

配置 Replicate MCP 服务器

这个服务器需要 Replicate API 令牌 才能工作。

你可以在 Replicate 官网 获取 API 令牌。

实际上,有两种方法可以提供这个令牌:

方法 1(推荐):添加到 Claude Desktop 配置文件

你需要将以下内容添加到 Claude Desktop 配置文件(具体位置见 Quickstart 部分):

{

"mcpServers": {

"replicate": {

"command": "mcp-replicate",

"env": {

"REPLICATE_API_TOKEN": "your_token_here"

}

}

}

}

你可以在这里找到更多关于 Replicate MCP 服务器的信息:

github.com/deepfates/mcp-replicate

数据库集成(Firebase、SupaBase 等)

这个功能对于自动化数据库任务非常有用。

如果我想创建一个新表、更新记录,或者快速查询点东西,我只需要用 AI 提示就能完成。

比如:

“创建一个名为 ‘newsletter_signups’ 的表,包含 email、signup_date 和 referrer 三列。”

然后,它就搞定了。

当然,你需要先准备好数据库凭据或配置。

但一旦设置完成,节省的时间是巨大的。

MCP:让 AI 工具更强大的“通用翻译器”

说到底,我想强调的是,MCP 本质上是一个通用翻译器,它能让各种 AI 工具变得更强大。

无论是读取设计文件、运行代码、管理数据库,还是整理任务,它的核心目标都是减少工作流程中的摩擦。

我知道,面对一大堆可用的服务器,可能会让人无从下手。但我的建议是,从最相关的一个开始。

• 喜欢做笔记? 试试 Obsidian 的集成。

• 整天用 Node 或 Python 编码? E2B Sandbox 可能会成为你的救星。

轻松创建属于你的 MCP 服务器

还有一点我不得不强调——现在创建自己的 MCP 服务器真的非常简单,如果现有的 MCP 服务器不能满足你的需求,完全可以自己搭建一个。

当然,你可能需要稍微打磨一下,但最大的难点——框架的搭建,基本上已经帮你解决了。

你的 MCP 体验?

如果你尝试了这些 MCP 服务器,告诉我你的使用体验!

如果你已经是 MCP 的深度用户,我很想知道你最离不开哪些服务器。

分享越多,我们的工作流就会变得越高效!

这次就先聊到这里。

祝你玩转 MCP,探索愉快!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值