【三步搭建 本地 编程助手 ollama + codegeex】

如果可以联网,vscode装个codegeex插件即可,本次搭建的本地编程助手,解决因安全问题完全无网络的情况下的编程助手搭建问题。
本文着重window下的离线部署,linux的参照这篇 linux下离线部署本地大模型

第一步 ollama安装

官网下载 https://ollama.com/

离线安装的常见报错以及解决方案

官网经常下载不下来,可以看之前写的从github下载:ollama安装

第二步 下载启动模型

下载

https://ollama.com/library 可以查看ollama支持哪些模型
在这里插入图片描述
此处我们搜索下codegeex,我由于笔记本配置问题,选择了小一点的量化版本,右边可以复制命令:
在这里插入图片描述

安装成功后,windows下显示了这个小图标
在这里插入图片描述

启动模型

  1. 开一个powershell,ollama 作为服务启动:

ollama serve

  1. 加载模型
    再打开一个命令行

ollama run codegeex4:9b-all-q2_K

此时已经可以进行对话了

常见问题

  1. 如果报错:Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.
    说明端口被占用,可以用下面的方式修改端口:

windows下改变监听端口
环境变量 增加变量名:OLLAMA_HOST 变量值
(端口)::11436

在这里插入图片描述
2. 跨域访问增加下面一个环境变量
OLLAMA_ORIGINS=“*”

修改完环境变量后,重启ollama,也重启下命令行端口

第三步配置codegeex

安装插件

联网的话,直接在插件中心用 vscode 安装好codegeex插件,不连网可以在marketplace下载:
https://codegeex.cn/zh-CN/downloadGuide
注意,插件最好装个新版本的,老版本的不支持离线模型

本地配置

安装完成后,vscode左侧插件栏选择codegeex,打开“…”选择“本地模式”
在这里插入图片描述
打开本地模式后,点下面这个本地模式,在vscode弹出来的对话框中选择config如下:
在这里插入图片描述
或者切换到模型选项卡,配置上ollama 启动的地址以及模型名称:

http://localhost:11434/v1/chat/completions

在这里插入图片描述

其他

ollama 搭建到彻底离线的内网的时候,跟上面配置是一样的,只是需要把有网络的情况下,Ollama下载好的模型拷贝到内网环境,默认情况下ollama的下载模型地址:
‌‌Windows系统‌:C:\Users<用户名>.ollama\models
‌‌Linux系统‌:/usr/share/ollama/.ollama/models
在这里插入图片描述
可以通过添加环境变量OLLAMA_MODELS 修改ollama下载和加载模型的地址

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值