Continue简介
Continue 是一款 VS Code 和 JetBrains 的开源AI代码助手插件,旨在提高开发者的编程效率和生产力。它本身不提供 AI 模型,但它提供了多种 AI 模型的接入方式来助力编程,实现多种场景下的功能。
了解更多详细内容可查看之前的文章:【VS Code】AI代码助手Continue体验如何?
Continue安装
直接在 VS Code 的插件市场输入 continue 就可以看到,然后直接安装即可。
安装完成后,点击Continue图标,可以看到Continue的初始化页面
启动Ollama
当前Ollama版本:0.5.6
启动Ollama,启动后看到状态栏中有Ollama模型表示启动成功了
如果之前没有下载过模型,可以通过如下命令运行指定模型,想了解更多Ollama信息,可以看往期:【Llama】无需GPU轻松本地部署大模型
$ ollama run qwen2.5:3b
Continue添加本机Ollama模型
本机运行Ollama服务可以直接默认添加使用
Continue添加局域网Ollama模型
Continue添加局域网Ollama模型时需要先退出应用程序启动的Ollama服务,使用命令行方式启动(当前版本通过应用程序启动的Ollama服务无法通过局域网共享)
点击Ollama图标,退出Ollama
设置Ollama host配置
$ export OLLAMA_HOST=0.0.0.0:11434
以命令行形式启动Ollama
// 确保当前已有可用的模型,执行
$ ollama serve
// 如果没有可用的模型,可执行如下命令
$ ollama run qwen2.5:3b
在 VS Code 侧边栏点击 Continue 插件图标,然后在面板右上角点击【⚙️】图标,打开 config.json 文件
手动配置模型及tab自动补全信息如下
配置完成就可以在局域网中通过IP共享使用了
常见问题
局域网无法共享
使用 http://127.0.0.1:11434 可以正常访问Ollama服务,通过IP无法访问
解决方法一:
点击Ollama图标,退出Ollama
设置Ollama host配置
$ export OLLAMA_HOST=0.0.0.0:11434
以命令行形式启动Ollama
$ ollama serve
解决方法二:
在终端执行命令,并点击Ollama应用程序启动
launchctl setenv OLLAMA_HOST "0.0.0.0:11434"
点击配置没有打开Config.json
新版本配置发生改变,点击⚙️后再点击【Open configuration file】