AI世界的「通用连接器」?网易云信IM/RTC支持兼容MCP开源协议

近日,网易云信宣布支持兼容 MCP 开源协议,将即时通讯(IM)和实时音视频(RTC)服务通过 MCP 协议开放给开发者,降低开发成本,提升开发效率。

网易云信对外提供包括 IM 与 RTC 在内的融合通信服务。在 MCP 之前,云信通常以 Open-API 形式或在管理后台以 UI 的方式来暴露数据和功能。

而在兼容 MCP 协议后,云信的能力可以通过 MCP 协议暴露,开发者无需做任何开发,只需通过简单配置就可结合大模型来快速获取云信 Open-API 暴露的数据和能力,并且利用大模型或其他 MCP 工具对相关数据和能力进行进一步加工和使用,服务于业务运营。

1

什么是MCP协议?

MCP(Model Context Protocol)是模型上下文协议,最初由 Anthropic 提出并开源,旨在创建一个开放、标准的规范,让大语言模型能够无缝与各种外部数据源和工具进行交互,目标是成为 AI 领域的“HTTP 协议”,也可以将其想象为 AI 世界的“USB-C”或“通用连接器”,解决模型智能与现实应用之间的连接问题,最终目的是推动大模型应用的标准化和去中心化。

随着 OpenAI 与 Google 相继表态支持 MCP 后,MCP 正在成为全球广泛接受的标准,标志着 AI 应用开发向着更高效统一的方向迈出了坚实的一步。

通过 MCP 协议,AI Agent 应用在访问外部数据和调用外部工具时,将变成一个统一开放的系统。工具提供方和Agent 应用维护者只需聚焦各自关注的内容,而无需关注对方的细节。例如,Agent 应用开发者只需要知道有哪些MCP 工具及其各自的功能,而工具提供方也只需关注工具本身的功能实现即可。

2

在MCP之前,大家都是怎么做的?

众所周知,大模型在文本理解、逻辑推理等方面能力都很强,但受限于训练数据的时效性,无法覆盖最新的知识和信息,因此通过大模型获得的信息可能是陈旧的、过期的;但若要针对近期发生的信息生成内容,就有可能出现“幻觉”,联网数据查询不到、信源质量不高等都会导致输出内容鱼龙混杂,甚至胡编乱造的问题。

在 MCP 之前,解决信息陈旧问题,通常有以下常见思路:

1. 模型微调

重新使用最新的数据来训练大模型,缺点是成本比较高。

2. RAG 和向量数据库

将最新的数据或私有的数据通过向量数据库方式进行 topN 匹配,并作为上下文提交给大模型,缺点是需要在大模型的请求 pipeline 中额外增加请求向量数据库的工作,有一定的业务侵入性。

此外,对 “外部检索” 的依赖,会导致检索精度、延迟、数据管理成本和系统复杂度面临挑战。

3. function-call

目前大部分大模型都支持 function-call,其实 RAG 和向量数据也可以以 tool 的形式被模型调用;此外,通过 function-call 我们可以让大模型去使用外部的一些工具,搭配上流程编排(workflow)和目标规划,就演变成了时下火热的 AI Agent。

但是 function-call 最大的问题就是没有统一的标准和规范,因此工具的设计和实现往往和Agent 本身的开发耦合在一起了。MCP 协议的出现就是希望将工具调用标准化,从而互相解耦。

3

如何接入和使用网易云信 MCP?

介绍了这么多,接下来我们具体讲讲如何接入和使用云信 MCP。

在本次示例中,我们以 cherry-studio 这个支持 MCP 协议的大模型客户端为例,并选择了 DeepSeek 作为演示的大模型。

首先,你需要先安装好 cherry-studio,并且已经拥有了 DeepSeek 的账号;其次,你需要在本地安装好 python 的包管理工具 uv;此外,下载 Yunxin-MCP-Server 的源码到本地,具体参考如下:

1. cherry-studio:https://cherry-ai.com/download

2. uv:https://docs.astral.sh/uv/

3. DeepSeek:https://www.deepseek.com/

4. Yunxin-MCP-Server:

https://github.com/netease-im/yunxin-mcp-server

备注:后续我们计划把 Yunxin-MCP-Server 发布到 PyPi 仓库,则本地将不再需要下载 Yunxin-MCP-Server 的源码。

配置方法

一个 IM 的简单示例

一个 RTC 的简单示例

在上述演示中,我们使用了 Yunxin-MCP-Server 中的多个工具。例如:

在 IM 场景中,让大模型分析历史消息和群成员关系等,用于辅助运营。此外通过大模型,我们也能直接查询 SDK/API 调用情况的实时统计数据,以及每日消息量这样的 T+1 离线统计数据,从而可以让大模型来分析和判断系统的运行状态,并且给出一些建议。

在 RTC 场景中,让大模型查询了房间和网络不同维度上的卡顿率指标情况,用来辅助判断系统当前的运行状态,以及方便问题排查。

实际上,我们还可以将云信 MCP 和其他 MCP 工具组合使用,例如把上述查询到的数据写入 Excel 并绘制成可视化图表,发挥更大价值。

换句话来说,当大模型准备就绪,工作流衔接合理,只需完成简单的配置工作就能搭建功能各异、且专属于自己的 MCP Agent!

因此,Yunxin-MCP-Server  提供了比上述示例中更多的 tool,完整工具列表可以通过 github 查看:https://github.com/netease-im/yunxin-mcp-server。

4

 小 结

随着越来越多企业和开发者加入,我们将会看到越来越产品和工具从“出厂”就自带 MCP 接口,使其天生就拥有 AI 基因,具备与其他 MCP 工具融合共生的能力。我们期待 MCP 能成为 AI 与工具交互的标准接口,催生出新一代更自主、更全面、多模态的智能体验。

最后,欢迎您试用云信 MCP,若您对当前 Yunxin-MCP-tool 提供的能力有任何建议,比如对已有工具能力增强的需求、更多其他的工具需求等,都可以留言告诉我们。

图片

图片

云小信智能体,为您 7x24h 在线答疑

关于我们

图片

图片

图片

   干货资料 免费领取   

图片

【扫描二维码】即可免费领取!

图片

图片

图片

图片

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值