介绍
近年来,开发者工具纷纷加入 AI 功能,以提高生产力和效率。其中一款备受瞩目的热门工具是 Cursor,它将编程功能与 AI 功能相结合。然而,Cursor 的价格不菲。
VS Code 有 Copilot,但它只能在已有代码中添加代码。Cursor 允许用户使用提示来重构代码,AI 会根据提示将建议显示在现有代码旁边,就像合并冲突一样,供用户选择接受或拒绝。Cursor 还允许根据提示进行多文件编辑。
光标显示其变化,如合并冲突。
您还可以打开一个空项目并要求 Cursor 为您创建一些特定内容,它将为您添加新的代码文件、安装依赖项等。
本文将指导您免费或以最低成本使用 VS Code、开源扩展和本地模型设置替代方案,其性能与 Cursor 的 AI 集成一样好。
为什么要避免使用Cursor?
成本和可达性
• Cursor 每月收费 20 美元,提供您可以免费使用的功能。
• 许多用户不知道有免费的开源替代品。
隐私问题
• Cursor 将数据发送到外部服务器,引发隐私问题。
• 使用本地模型可确保您的数据安全。
缺乏创新
• Cursor 本质上是 VS Code 的一个分支,并添加了 AI 功能。
• 它出售社区贡献的成果,而这些成果原本是免费的。
我们将使用的工具
如上所述,我们将使用 VS Code 作为我们的主要 IDE。
我们将添加Continue.dev插件,用于代码完成、内联 AI 代码编辑以及与 AI 聊天讨论我们的代码的可能性。
Continue.dev 实际操作
我们还将添加支持多文件编辑的Cline 扩展。这意味着您可以创建一个新的空白项目,并让 Cline 创建一个基于 Python 的 API,例如,让用户使用 FastAPI 创建、检索、更新和删除存储在 JSON 数据库中的地址信息。Cline 将初始化项目、安装所需组件(FastAPI 和 Uvicorn)、创建代码文件,甚至使用 REST 端点为您运行和测试该 API。
Cline in action
最后,我们将使用Ollama在我们的机器上本地运行大型语言模型 (LLM),使用编码优化的 LLM,从而无需将任何内容发送到云端。
Ollama demo
在 VS Code 中创建替代Cursor的分步指南
1. 设置 VS Code
首先,下载并安装 VS Code,它是可在任何平台上使用的免费开源代码编辑器。
2.安装Ollama并添加本地LLM
免费下载并安装适用于任何平台的Ollama。如果它提示您向 shell 添加扩展,请批准。Ollama 的行为有点像 Docker,它会为您拉取和管理 LLM,并允许您或应用程序使用 shell 向它们发送提示。
接下来,导航到模型部分并找到 Codellama 模型。
在 Ollama 中查找 Codellama 模型
展开模型即可查看其可用版本。若要用作 Tab 键补全,我推荐使用小型 7b(或最新版本)。它基于 Meta 的 Llama 模型,并针对编码进行了优化。
在 Ollama 中扩展 codellama 的不同模型尺寸
使用你的 shell 拉取模型:
ollama run codellama:7b
Ollama 会立即拉取模型并让你与其聊天。尝试输入提示。
>>> hello world
It's great to see you here! I'm just an AI, happy to chat with you about a wide range of topics. What would you like to talk about today?
要退出聊天,请输入/bye。您可以使用 列出模型ollama list,并使用其名称执行模型ollama run codellama:7b。要获取特定模型的信息,请运行ollama info codellama:7b
另一个用于代码补全的小型快速模型是qwen2.5-coder:1.5b。它的大小不到 1GB,并且阿里巴巴的该模型在代码生成、代码推理和代码修复方面都有显著改进。32B 模型的性能可与 OpenAI 的 GPT-4o 相媲美。
Qwen2.5-Coder吉祥物
3. 安装 Continue Dev 实现 AI 自动完成
在扩展市场中搜索“继续”并安装。
VS Code 中的 Continue 扩展
从左侧的扩展窗格中选择其图标。在这里,您可以点击模型下拉菜单,选择 Ollama 作为您的 AI 提供商来配置扩展。
Ollama 中的模型会不断由扩展程序自动检测,并在模型下拉菜单中提供给您。
在 Continue.dev 中选择一个模型
接下来,编辑扩展程序的config.json文件。它可以在.continue你的主文件夹中找到。你可以在“模型”部分看到“AUTODETECT”条目。如果你不想自己托管模型,Continue 允许你添加各种其他模型源,包括 Azure OpenAI、OpenAI 和 Anthropic。
在这里,将 Ollama 添加到tabAutocompleteModel
{
"models": [
{
"model": "AUTODETECT",
"title": "Autodetect",
"provider": "ollama",
"apiKey": "xxx"
}
],
"tabAutocompleteModel": {
"title": "Codellama",
"provider": "ollama",
"model": "codellama:7b"
},
...
}
您可以测试“继续”并了解如何在聊天中提问或要求它使用位于的教程文件修改您的代码~./.continue/continue_tutorial.py。
使用 Cmd/Ctrl + J 询问有关代码的 Continue 问题:
使用 Cmd/Ctrl + J 询问有关代码的问题
询问是否继续使用 Cmd/Ctrl + I 修改您的代码:
询问是否继续使用 Cmd/Ctrl + I 修改代码
测试 Continue 的自动完成功能:
测试 Continue 的自动完成功能
4. 添加 Cline 进行多文件编辑
从扩展选项卡安装“Cline”扩展。
VS Code 中的 Cline 扩展
从扩展选项卡中选择 Cline 图标,并使用齿轮图标进行配置。选择 Ollama 作为 API 提供程序,并选择您已安装的模型之一。您还可以根据个人需求自定义提示,允许其在无需确认的情况下执行只读操作(它每次仍会请求写入文件的权限)。
在 Cline 中选择 Ollama 模型
它会起作用,但您可能会使用本地模型仅通过提示生成复杂的解决方案而获得混合结果,Antrophic 的 Claude Dev擅长根据简单提示生成和修改多文件项目。
您可以尝试打开一个空白解决方案,并让 Cline 为您创建一段代码。以下视频演示了如何使用 FastAPI 创建基于 Python 的 API,用于对用户名和电子邮件地址进行 CRUD 操作。
以下视频展示了 Cline 根据提示使用 FastAPI 创建 Python API 应用程序的记录,该应用程序允许用户创建、读取、更新和删除包含姓名和电子邮件信息的记录,并将其存储到 JSON 数据库中。
Cline VS Code Plug-In Demo
Cline 按照提示使用 FastAPI 创建了一个 Python API 应用程序,该应用程序允许用户创建、读取、更新和删除包含姓名和电子邮件信息的记录,并将其存储到 JSON 数据库中。
使用这些工具,您可以获得与 Cursor IDE 同等的权限,但拥有更多的控制权,而且是免费的,并且使用 VS Code 的最新版本,而不是 Cursor 创建的分支。
结合模型实现最高效率
使用本地模型执行自动完成等任务,以避免依赖付费 API 调用。
例如,Qwen 2.5(1.5b 模型)是用于编码的快速本地机器学习模型的绝佳选择。
使用付费的在线模型来完成复杂的任务,例如使用 Cline 中的提示从头开始生成解决方案。
成本效益
使用 Claude Dev 等工具,生成 200 行代码等任务仅需花费 0.07 美元,Anthropic 会根据每次请求使用的计算量向您收取费用。无需订阅。
本地模型完全消除了成本,使其成为可扩展的选择。
隐私和控制
本地工具可确保您的数据不会与第三方共享以用于训练他们的 AI 模型。
开源工具是透明的,允许您审核和修改其行为。
性能优化
使用 Claude Dev 等工具进行快速缓存,进一步降低 API 成本。
尝试使用 Gemini Flash 等轻量级模型来平衡成本和性能。
最后的想法
VS Code、Continue Dev 和 Claude 的组合提供了一个强大且经济高效的 Cursor 替代方案。它为开发者提供了可定制的 AI 增强型编码功能,同时保护了隐私并降低了成本。这种 DIY 方法证明,只需进行一些配置,您就可以实现 Cursor 提供的所有功能,甚至更多,而且成本仅为 Cursor 的一小部分。
如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。