【VS Code】Continue加载本地与局域网Ollama模型的正确方式

Continue简介

Continue 是一款 VS Code 和 JetBrains 的开源AI代码助手插件,旨在提高开发者的编程效率和生产力。它本身不提供 AI 模型,但它提供了多种 AI 模型的接入方式来助力编程,实现多种场景下的功能。

了解更多详细内容可查看之前的文章:【VS Code】AI代码助手Continue体验如何?

Continue安装

直接在 VS Code 的插件市场输入 continue 就可以看到,然后直接安装即可。

在这里插入图片描述

安装完成后,点击Continue图标,可以看到Continue的初始化页面

在这里插入图片描述

启动Ollama

当前Ollama版本:0.5.6

启动Ollama,启动后看到状态栏中有Ollama模型表示启动成功了

在这里插入图片描述

如果之前没有下载过模型,可以通过如下命令运行指定模型,想了解更多Ollama信息,可以看往期:【Llama】无需GPU轻松本地部署大模型

$ ollama run qwen2.5:3b

Continue添加本机Ollama模型

本机运行Ollama服务可以直接默认添加使用

在这里插入图片描述

在这里插入图片描述

Continue添加局域网Ollama模型

Continue添加局域网Ollama模型时需要先退出应用程序启动的Ollama服务,使用命令行方式启动(当前版本通过应用程序启动的Ollama服务无法通过局域网共享)

点击Ollama图标,退出Ollama

在这里插入图片描述

设置Ollama host配置

$ export OLLAMA_HOST=0.0.0.0:11434

以命令行形式启动Ollama

// 确保当前已有可用的模型,执行
$ ollama serve 
// 如果没有可用的模型,可执行如下命令
$ ollama run qwen2.5:3b

在 VS Code 侧边栏点击 Continue 插件图标,然后在面板右上角点击【⚙️】图标,打开 config.json 文件

在这里插入图片描述

手动配置模型及tab自动补全信息如下

在这里插入图片描述

配置完成就可以在局域网中通过IP共享使用了

在这里插入图片描述

常见问题

局域网无法共享

使用 http://127.0.0.1:11434 可以正常访问Ollama服务,通过IP无法访问

解决方法一:

在这里插入图片描述

点击Ollama图标,退出Ollama

在这里插入图片描述

设置Ollama host配置

$ export OLLAMA_HOST=0.0.0.0:11434

以命令行形式启动Ollama

$ ollama serve

解决方法二:

在终端执行命令,并点击Ollama应用程序启动

launchctl setenv OLLAMA_HOST "0.0.0.0:11434"

点击配置没有打开Config.json

新版本配置发生改变,点击⚙️后再点击【Open configuration file】

在这里插入图片描述

友情提示

见原文:【VS Code】最近Cline的几项重磅更新)

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值