在当今的编程领域,AI 辅助编程已然成为一股不可忽视的潮流;无论是 Cursor 还是 VSCode 中的国内外各种厂商的编程助手插件,都为开发者们带来了极大的便利。
然而,远端服务和收费服务存在诸多限制,比如网络不稳定可能导致服务中断,高额的费用也让一些开发者望而却步。与此同时,qwen、deepseek 等本地编程模型也日臻成熟,其具备数据隐私性高、不受网络限制等优点,逐渐成为开发者更理想的一种选择。
接下来就让我们以 Windows 环境为例,一同探索如何在 VSCode 甚至 NeoVim 中调用本地编程大模型,开启高效编程之旅。
在正式开始之前,先来认识一下本次探索之旅中的“小伙伴”们:
ollama
:一款强大的工具,它为本地模型的部署提供了极大的便利,让模型的下载、运行和管理变得轻松简单qwen2.5-coder
:千问编程大模型,它将为我们的编程工作提供智能辅助Continue
:VSCode中的一款插件,通过它可以轻松地将各种远端/本地模型集成到VSCode开发环境中ollama.nvim
:专门为 Neovim 设计的 ollama 插件
配置本地模型
首先从官网下载并安装 ollama
安装过程十分简单,完成后 ollama