畅玩本地编程大模型:解锁 VSCode 与 NeoVim 高效编程新姿势

453ffac5badc1ceebd9a40d404ba1c6a.png

在当今的编程领域,AI 辅助编程已然成为一股不可忽视的潮流;无论是 Cursor 还是 VSCode 中的国内外各种厂商的编程助手插件,都为开发者们带来了极大的便利。

然而,远端服务和收费服务存在诸多限制,比如网络不稳定可能导致服务中断,高额的费用也让一些开发者望而却步。与此同时,qwen、deepseek 等本地编程模型也日臻成熟,其具备数据隐私性高、不受网络限制等优点,逐渐成为开发者更理想的一种选择。

接下来就让我们以 Windows 环境为例,一同探索如何在 VSCode 甚至 NeoVim 中调用本地编程大模型,开启高效编程之旅。

在正式开始之前,先来认识一下本次探索之旅中的“小伙伴”们:

  • ollama:一款强大的工具,它为本地模型的部署提供了极大的便利,让模型的下载、运行和管理变得轻松简单

  • qwen2.5-coder:千问编程大模型,它将为我们的编程工作提供智能辅助

  • Continue:VSCode中的一款插件,通过它可以轻松地将各种远端/本地模型集成到VSCode开发环境中

  • ollama.nvim:专门为 Neovim 设计的 ollama 插件

配置本地模型 

首先从官网下载并安装 ollama

安装过程十分简单,完成后 ollama

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值