MCP 实践系列:百度 AI 搜索

今天在腾讯云MCP市场,我发现了许多不同的MCP组件。接下来,我打算逐一深入了解每个组件的具体功能。今天的重点将是百度AI搜索。

百度AI搜索结合了百度的传统搜索和人工智能技术,能让用户体验到更智能的搜索方式。比如,基础搜索帮助你快速找到各种需要的内容,像是查天气、找餐厅推荐,甚至查看新闻,所有这些都能轻松找到相关信息。

而AI搜索则通过智能总结大模型的内容,帮助你省去筛选繁杂信息的时间。例如,如果你查找一个复杂的技术问题,AI搜索不仅能列出相关资料,还能直接给你提供一个简明的总结,省去你阅读大量文章的麻烦。

image

本次演示主要以腾讯编程助手 CodeBuddy 为例进行展示。虽然该工具支持图片输入功能,但由于目前编程助手尚未实现该功能,因此我们仅以文字描述形式进行演示。

前期准备

首先,我们将展示该组件的配置步骤,如下图所示:

image

我们只需要一个 API 密钥即可进行调用。接下来,我们可以直接前往百度智能云平台申请该密钥。申请页面的链接如下:https://console.bce.baidu.com/iam/#/iam/apikey/list,详细步骤请参考下方的截图:

image

申请成功后,我们不再需要担心个人测试的费用问题。目前,系统提供了每天100次的调用额度,这对于我们个人使用而言已经足够充裕。如图所示:

image

接下来,我们将开始进行配置设置。

测试

我们直接点击MCP按钮,然后根据需求添加相应的配置,具体操作步骤和配置项如图所示。

image

接下来,我们只需简要配置秘钥信息,按照以下所示的具体配置步骤进行操作。

{
  "mcpServers": {
    "edgeone-pages-mcp": {
      "command": "npx",
      "args": [
        "edgeone-pages-mcp"
      ]
    },
    "baidu_ai_search": {
      "url": "http://appbuilder.baidu.com/v2/ai_search/mcp/sse?api_key=Bearer ..d915cfffc7707"
    }
  }
}

这样一来,我们已经成功完成了百度AI搜索的配置步骤。接下来,我们只需点击运行按钮,进行一个简单的测试,以验证其效果,如下图所示:

image

最后,在Craft中查看结果后,发现效果相当不错,具体情况如下图所示:

image

我们接下来将进行一次实际效果的测试,具体结果请参见下图所示:

image

中途他会询问是否需要新创建一个文件。如果用户需要创建文件,他将按照要求进行创建;如果不需要创建,他则会拒绝并做出适当的解释,以确保用户理解其操作意图。具体操作如图所示:

image

最后,我们打开这个新生成的文件,经过查看,整体效果令人满意,效果图如下所示:

image

小结

通过今天的体验,大家对百度AI搜索有了更深入的了解。它结合了传统搜索和AI技术,提供了更高效、更智能的搜索体验,尤其是在处理复杂问题时,AI搜索能自动总结信息,节省大量时间。配合腾讯云编码助手中的工具和配置方式,用户可以轻松将百度AI搜索整合进自己的项目中,实现更智能化的操作。接下来,我将继续探索其他MCP组件,寻找更多的创新与实用功能。


我是努力的小雨,一个正经的 Java 东北服务端开发,整天琢磨着 AI 技术这块儿的奥秘。特爱跟人交流技术,喜欢把自己的心得和大家分享。还当上了腾讯云创作之星,阿里云专家博主,华为云云享专家,掘金优秀作者。各种征文、开源比赛的牌子也拿了。

💡 想把我在技术路上走过的弯路和经验全都分享出来,给你们的学习和成长带来点启发,帮一把。

🌟 欢迎关注努力的小雨,咱一块儿进步!🌟

原创作者: guoxiaoyu 转载于: https://www.cnblogs.com/guoxiaoyu/p/18860215
为了将MCP(Model Context Protocol)集成到Qwen3中,可以参考以下最佳实践教程。这些步骤结合了现有项目实践和技术文档,旨在帮助开发者高效地实现集成。 ### 1. 理解MCP的基本概念 在开始之前,确保对MCP协议有充分的理解。MCP是一种模型上下文协议,用于定义大模型与外部系统之间的交互方式[^2]。通过该协议,可以实现工具调用、上下文管理以及动态扩展等功能。这为构建复杂的AI应用提供了基础支持。 ### 2. 准备开发环境 - **安装Ollama**:如果计划使用本地LLM进行测试或部署,请首先在本地系统中安装Ollama。 - **获取支持MCP的模型**:从Ollama提供的“模型”部分中查找支持工具调用的LLM,并拉取相关模型。 - **配置Python环境**:确保你的开发环境中已安装必要的Python库,如`langchain`、`transformers`等,以支持后续开发工作[^3]。 ### 3. 集成MCP到Qwen3 #### 使用LangChain框架 - 利用LangChain框架的模块化设计,可以通过简单的API调用来实现MCP协议的支持[^3]。具体来说,你可以利用其提供的工具和链式结构来构建自定义的服务逻辑。 - 在LangChain中注册MCP相关的工具和服务,以便于Qwen3能够识别并调用它们。例如,定义一个处理火车票查询的工具类,并将其绑定到特定的MCP端点上[^1]。 ```python from langchain.tools import Tool class TrainTicketQueryTool(Tool): name = "train_ticket_query" description = "查询火车票信息" def _run(self, *args, **kwargs): # 实现具体的火车票查询逻辑 pass ``` #### 配置Qwen3模型 - 根据官方文档下载并加载Qwen3模型权重。由于Qwen3提供密集型和混合专家(MoE)两种版本,选择适合你应用场景的模型类型[^4]。 - 对于需要更高性能的应用场景,建议使用具有更大参数规模的版本,比如Qwen3(32B),并且充分利用其128K上下文窗口的优势[^3]。 ### 4. 构建MCP Server - 借鉴百度地图MCP Server的设计思路,创建一个轻量级的服务端点来处理来自Qwen3的请求。 - MCP Server应该能够接收来自Qwen3的消息,解析其中包含的操作指令,并执行相应的业务逻辑。 - 将结果返回给Qwen3时,确保遵循MCP规定的格式,这样有助于保持系统的兼容性和可维护性[^1]。 ### 5. 测试与优化 - 在实际部署前,进行全面的功能测试和性能评估是至关重要的。特别是要验证MCP接口是否正确无误地被Qwen3调用。 - 根据测试反馈调整服务端代码及配置参数,不断迭代改进直到达到预期效果为止。 通过以上步骤,可以有效地将MCP协议集成进基于Qwen3构建的应用程序当中,从而开启更多创新的可能性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值