ollama-mcp-bridge:连接本地LLM与MCP服务,打造强大本地AI助手

ollama-mcp-bridge:连接本地LLM与MCP服务,打造强大本地AI助手

ollama-mcp-bridge Bridge between Ollama and MCP servers, enabling local LLMs to use Model Context Protocol tools ollama-mcp-bridge 项目地址: https://gitcode.com/gh_mirrors/ol/ollama-mcp-bridge

项目介绍

ollama-mcp-bridge 是一个基于 TypeScript 的开源项目,旨在将本地的大型语言模型(LLM)与模型上下文协议(MCP)服务器连接起来。通过这一桥梁,开源模型能够使用与 Claude 相同的工具和能力,从而实现功能强大的本地 AI 助手。

项目技术分析

ollama-mcp-bridge 的核心技术是桥接本地 LLM 和 MCP 服务器。它通过翻译 LLM 的输出和 MCP 的 JSON-RPC 协议,使得任何兼容 Ollama 的模型都能使用这些工具,就像 Claude 一样。

项目架构包括以下几个核心组件:

  • Bridge:管理工具注册和执行的核心组件。
  • LLM Client:处理 Ollama 交互并格式化工具调用。
  • MCP Client:管理 MCP 服务器连接和 JSON-RPC 通信。
  • Tool Router:根据工具类型将请求路由到适当的 MCP。

ollama-mcp-bridge 的关键特性包括多 MCP 支持、动态工具路由、工具调用结构化输出验证、自动工具检测以及详细日志和错误处理。

项目及技术应用场景

ollama-mcp-bridge 的应用场景广泛,它能够支持如下功能:

  • 文件系统操作:如创建、删除、修改文件和文件夹。
  • 网络搜索:使用 Brave 搜索工具进行信息检索。
  • GitHub 交互:进行代码托管、版本控制等操作。
  • Google Drive 和 Gmail 集成:管理云端文档和电子邮件。
  • 内存/存储:提供数据持久化能力。
  • 图像生成:利用 Flux 工具生成图像。

这些功能使得 ollama-mcp-bridge 非常适合开发本地 AI 助手,可以在多种环境中提供高效的服务。

项目特点

ollama-mcp-bridge 的主要特点包括:

  1. 多 MCP 支持:支持多个 MCP 服务器,并能够根据工具类型动态路由请求。
  2. 结构化输出验证:对工具调用进行结构化输出验证,确保正确性和一致性。
  3. 自动工具检测:基于用户输入自动检测所需工具,简化操作流程。
  4. 稳健的过程管理:对 Ollama 的过程管理进行了优化,确保稳定运行。
  5. 详细的日志和错误处理:提供详细的日志记录和错误处理,便于调试和维护。

使用说明

安装

首先,需要安装 Ollama 和所需的模型:

ollama pull qwen2.5-coder:7b-instruct

然后,安装 MCP 服务器:

npm install -g @modelcontextprotocol/server-filesystem
npm install -g @modelcontextprotocol/server-brave-search
npm install -g @modelcontextprotocol/server-github
npm install -g @modelcontextprotocol/server-memory
npm install -g @patruff/server-flux
npm install -g @patruff/server-gmail-drive

接着,配置相关凭证,如 Brave API 密钥、GitHub 个人访问令牌等。

配置

ollama-mcp-bridge 通过 bridge_config.json 文件进行配置,包括 MCP 服务器定义、LLM 设置以及工具权限和路径。

使用

启动桥梁:

npm run start

然后可以使用命令行与 AI 助手交互,例如搜索网络、创建文件夹或发送电子邮件。

技术细节

ollama-mcp-bridge 实现了智能工具检测,可以根据用户输入自动识别所需工具,并处理相应的响应。这些响应经过多个阶段的处理,确保最终结果的正确性和有效性。

扩展能力

通过 ollama-mcp-bridge,本地模型可以获得与 Claude 相似的功能,包括文件系统操作、网络搜索、电子邮件和文档管理、代码和 GitHub 交互、图像生成以及持久化内存。

未来改进

未来的改进方向包括支持更多的 MCP、实现并行工具执行、添加流式响应、增强错误恢复、添加会话内存以及支持更多 Ollama 模型。

总结

ollama-mcp-bridge 是一个强大的开源项目,它通过桥接本地 LLM 和 MCP 服务器,为开发者提供了一种简便的方式来构建功能丰富的本地 AI 助手。通过该项目,用户可以充分利用开源模型的潜力,实现多种实用的功能。无论您是 AI 爱好者还是专业开发者,ollama-mcp-bridge 都是一个值得尝试的项目。

ollama-mcp-bridge Bridge between Ollama and MCP servers, enabling local LLMs to use Model Context Protocol tools ollama-mcp-bridge 项目地址: https://gitcode.com/gh_mirrors/ol/ollama-mcp-bridge

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柯展隽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值