AI assistant本地部署Continue.dev + Ollama + MCP Server

AI assistant本地部署Continue.dev + Ollama + MCP Server

本文选择用Visual Studio Code + Continue.dev插件集成配套的AI IDE,配置Ollama本地运行qwen2.5-coder (7b)模型,并添加一个PG MCP server以提供相应的Tool功能。


为什么这么做?

  • 为了理解和实操MCP
  • 地区问题用不了Claude Desktop
  • 优先想到CodeLLM的使用场景
  • 免费,不想花钱买API key

技术介绍

  • Model Context Protocol 是一种开放协议,旨在为AI应用提供标准化的接口以安全访问和操作本地及远程数据,被形容为AI领域的“USB-C接口”。
  • Continue.dev 是一款功能强大且高度可扩展的AI编程助手,支持多任务并行处理与开发流水线工具集成,为开发者提供全方位的智能编码支持。
  • Ollama 是一个开源框架,专门设计用于在本地运行大型语言模型,通过将模型权重、配置和数据捆绑到一个包中,简化了模型的设置和使用。

(以上文字介绍来自qwq生成,可能代表、也可能不代表作者观点)

那么本文的这个案例中,各个工具或者应用承担的是什么角色呢?

  • MCP host and client: Visual Studio Code + Continue.dev
  • LLM: Ollama running qwen2.5-coder
  • MCP server: 一个用MCP Typescript SDK实现的Node.js应用(被Continue.dev初始化应用)

在这里插入图片描述


操作步骤

1. Visual Studio Code中安装Continue.dev插件

在这里插入图片描述

为了与主流AI IDE布局一致,装完之后我把插件入口拖至right side bar 🐶


2. 使用Ollama本地部署LLM

Ollama的本地安装比较傻瓜,就不赘述了,follow官方文档就好。我这里选择运行一个阿里的qwen2.5-coder 7b作为Continue.dev的模型Provider,用下来感觉跑着不费力。

这里也想问一下,有没有哪位同学试过MacBook Pro (Apple M4 Pro)能跑得动多大参数体量的LLM?32b?

ollama run qwen2.5-coder

# 下载好image安装运行成功后,可以直接Ctrl + c退出,Ollama会自己按需启动/停止模型服务

3. 本地配置PG MCP server

这里先使用官方实现的PG MCP server,https://github.com/modelcontextprotocol/servers/tree/main/src/postgres,下次再尝试自己实现一个。

git clone git@github.com:modelcontextprotocol/servers.git
cd servers/src/postgres
npm ci

这里可以使用MCP inspector来测试一下本地MCP server部署成功与否:

# debug
npx -y @modelcontextprotocol/inspector npx @modelcontextprotocol/server-postgres postgresql://postgres:postgres@localhost:30432/developer_ems

Starting MCP inspector...
⚙️ Proxy server listening on port 6277
🔍 MCP Inspector is up and running at http://127.0.0.1:6274 🚀

PG的本地部署我就不赘述了,一个docker desktop直接搞定的事。下面是访问MCP inspector的一些截图:

在这里插入图片描述

在这里插入图片描述


4. 在Continue.dev中添加MCP server并使用

完成以上步骤之后,我们就已经拥有了:

  • 一个AI IDE作为MCP host
  • 一个能访问PG的MCP server应用

最后我们需要将二者配通,即可完成。

4.1 在Continue.dev的配置中添加如下

通过“Add MCP Servers”直接打开config.json进行编辑

在这里插入图片描述

"experimental": {
    "modelContextProtocolServers": [
      {
        "transport": {
          "type": "stdio",
          "command": "npx",
          "args": [
            "-y",
            "@modelcontextprotocol/server-postgres",
            "postgresql://postgres:postgres@localhost:35432/postgres"
          ]
        }  
      }
    ]
  },

保存config.json,Continue.dev就会自动加载添加的MCP Server。

4.2 检查Tools是否正常被detect

完成上面的步骤后,Continue.dev就可以自动检测出MCP server所提供的Tools,此文章的例子中即是query这个Tool:

在这里插入图片描述

4.3 开始使用Prompt来检测Tool call

此处作者使用如下Prompt:

请帮我执行sql语句查询db中所有的tables

这是由于我们使用的MCP server的实现导致的:

在这里插入图片描述

好,发送Prompt!

在这里插入图片描述

好,完美失败。。。

经过一杯咖啡的思考时间,作者想起来,我们还没有切换成Agent模式。。。于是重启IDE并切换至Agent mode:

在这里插入图片描述

回车发送后即会发现此次Tool call被调用了:(出现double confirm是因为Continue.dev默认MCP server提供的Tools为“Ask first”模式)
在这里插入图片描述

在这里插入图片描述

成功!!!🚀🚀🚀

总结

那么至此,本次没什么卵用的MCP初体验就算完工了~

虽然本案例对实际开发帮助不大,但万事开头难,相信(我自己都不信)此次0-1的工作完成后,将来1-N的丰富多彩的有效案例将如雨后春笋般涌现!!!

<think>首先,用户的问题是基于之前的对话历史。系统级指令要求我使用中文回答,并遵循特定的格式:行内数学表达式用$...$,独立公式用$$...$$,语法正确,生成相关问题等。 用户当前的查询是:"我想查找在Continue.dev中接入GLM4.6的方法 请问Continue.dev接入GLM4.6的方法"。这表明用户想要知道如何在Continue.dev工具中配置GLM-4.6模型。 从引用中,我有几个相关的引用: - 引用[1]提到了Continue.dev的一些功能,并提供了一个配置示例: ```json { "models": [ { "title": "GLM-4.6", "provider": "openai", "model": "glm-4", "apiBase": "https://api.glm.ai/v1" } ] } ``` 这直接显示了在Continue.dev中配置GLM-4.6的方法。 - 引用[2]提供了获取GLM模型API Key的步骤:注册账号,创建API Key,筛选支持推理API的模型,复制base_url和api_key。 - 引用[3]似乎无关,是关于sqsh工具的,与用户问题无关。我可以忽略它。 用户上一次的问题是关于在Continue.dev接入GLM4.6的方法,所以我需要基于引用[1]和[2]来回答。 结构化回答: 1. **回答结构清晰,帮助用户逐步解决问题**:我应该提供一个逐步的教程。 2. **引用标识**:在引用末尾自然地添加引用标识,如[^1]。 3. **生成相关问题**:按要求,在末尾添加相关问题。 步骤概述: - 解释如何在Continue.dev配置文件中添加GLM-4.6模型。 - 使用引用[1]的配置示例。 - 引用[2]提供获取API Key的细节。 - 确保回答真实可靠。 最终回答应该包括: - 获取GLM API Key的步骤(基于引用[2])。 - 配置Continue.dev的步骤(基于引用[1])。 - 添加引用标识。 - 生成相关问题。 相关问题应该基于主题,例如: 1. Continue.dev的其他配置选项? 2. 如何测试GLM-4.6集成是否成功? 3. 常见问题解决? 在回答中,确保使用中文。 </think>### Continue.dev 接入 GLM-4.6 的方法 要成功在 Continue.dev 中接入 GLM-4.6 模型,您需要完成以下几个步骤。整个过程基于 Continue.dev 的配置文件设置,并参考了智谱大模型开放平台的 API 获取流程。以下是详细步骤: #### 步骤 1: 获取 GLM-4.6 的 API Key 和 Base URL 在接入 Continue.dev 前,您需要从智谱大模型开放平台获取 API Key 和 Base URL: 1. **注册账号**:访问 [智谱大模型开放平台](https://docs.bigmodel.cn),注册并登录账号。 2. **创建 API Key**: - 进入「账号设置 → 访问令牌」。 - 创建一个新的 API Key,并保存好此密钥(后续配置中需要用到)。 3. **筛选支持推理 API 的模型**: - 在模型库中筛选标记为“支持推理 API”的模型,例如 GLM-4.6。 - 复制模型的 `base_url`(例如 `https://api.glm.ai/v1`)和 `api_key` [^2]。 #### 步骤 2: 配置 Continue.dev Continue.dev 使用 JSON 格式的配置文件来添加自定义模型。参考官方文档和示例,您需要在 Continue.dev 的配置文件中添加 GLM-4.6 模型条目: 1. **打开 Continue.dev 配置文件**: - Continue.dev 的配置文件通常位于用户目录下的 `.continue/config.json` 或类似路径(具体路径可能因系统而异)。 - 如果文件不存在,创建一个新文件。 2. **添加模型配置**: - 在 `models` 数组中添加一个新对象,指定 GLM-4.6 的详细信息: - `title`: 自定义模型名称(例如 "GLM-4.6")。 - `provider`: 设置为 "openai",因为 GLM-4.6 兼容 OpenAI API 格式。 - `model`: 输入模型标识符(例如 "glm-4")。 - `apiBase`: 使用步骤 1 中复制的 `base_url`(例如 `https://api.glm.ai/v1`)。 - `apiKey`: 输入步骤 1 中获取的 API Key。 - 示例配置如下(基于引用中的示例): ```json { "models": [ { "title": "GLM-4.6", "provider": "openai", "model": "glm-4", "apiBase": "https://api.glm.ai/v1", "apiKey": "your-api-key-here" // 替换为您的实际 API Key } ] } ``` 此配置允许 Continue.dev 通过 HTTP API 调用 GLM-4.6 模型 [^1]。 3. **保存并重启**: - 保存配置文件后,重启 Continue.dev 应用以使更改生效。 - 测试集成:在 Continue.dev 中输入简单查询(如 "Hello, world!"),以验证 GLM-4.6 是否正常响应。 #### 注意事项 - **兼容性**:GLM-4.6 的 API 基于 OpenAI 格式设计,因此设置 `provider` 为 "openai" 通常可行。如果遇到问题,检查 API Base URL 是否正确,并确保网络连接稳定。 - **本地部署**:GLM-4.6 支持本地部署选项,但 Continue.dev 默认通过云 API 集成。如需本地部署,请参考智谱平台文档调整 `apiBase` 指向本地地址。 - **错误处理**:如果配置失败,查看 Continue.dev 日志(通常在应用控制台输出)排查错误,常见问题包括 API Key 无效或 URL 格式错误。 通过以上步骤,您可以在 Continue.dev 中高效接入 GLM-4.6,实现类似 OpenAI 模型的开发体验 [^1][^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值