再见了,付费的 Copilot!

部署运行你感兴趣的模型镜像

你好,我是坚持分享干货的 EarlGrey,翻译出版过《Python编程无师自通》、《Python并行计算手册》等技术书籍。

如果我的分享对你有帮助,请关注我,一起向上进击。

Copilot,是一款基于AI的、应用于写程序场景的工具;可以自动地生成高质量代码片段、注释、以及解释代码;它需要付费使用,月订阅费用10美元。

但在本文中,我们将在本地运行Code Llma 7B,从而自制一个免费的Vscode Copilot!

步骤很简单:

  1. 设置 Cody 和 VSCode

  2. 使用 Ollama 安装本地 Code Llama 7B

  3. 使用 Cody 提高编码效率

Cody

打开 VSCode,导航到“Extension”选项卡并搜索“Cody”。,在搜索结果中找到“Cody AI”并安装“Pre Release Version”

然后,使用google账户或者github账户登录Cody:

8efd3966d574e7fb6db9eb96b6b01cff.jpeg

选择您的使用目的:为个人项目

ec5851fd3384934b8462db2b650f9127.jpeg

然后,授权 Cody 并复制您的 VSCode 扩展令牌

ac1977caee4d33e093c32dc40ed6b65d.jpeg

一旦获得授权,它将再次打开 VSCode:如果一切顺利,将会在左边栏看到以下可用指令:

4afd2c160c982ee38de11ed9aa090f9f.jpeg

默认情况下,Cody 使用 gpt-4,然后每月费用为 9 美元,这对于我们来说还是太贵了!因此,接下来安装Code-llama,使用本地、免费的模型替代GPT-4!

使用 Ollama 运行 Cody 和本地LLM

首先介绍一下Ollama,它是一个简明易用的本地大模型运行框架,允许用户在mac和linux(Windows即将推出)上轻松部署LLM。

打开浏览器并访问 Ollama.ai ,安装 Ollama,它适用于 macOS 和 Linux。由于我在 Windows 上使用 WSL 2,因此我将设置 Linux 版本。

整个安装过程只需要几秒钟:

配置Code Llama 7B

要开始使用 Ollama,我们首先需要启动 Ollama server:

ollama serve

然后打开另一个终端,运行:

ollama pull codellama:7b-code

这个命令会下载 Code Llama 7B。

Code Llama 是 Llama 2 的微调版本,在专门的代码数据集上进行了训练。它可以理解和生成代码以及有关代码的注释,相对Llama2,它能更好地回答关于代码的问题。Code Llama 还擅长代码补全和调试,它支持多种流行的编程语言,包括 Python、C++、Java、PHP、Typescript (Javascript)、C# 和 Bash,因此是一个适用于本地copilot的LLM。

下载完成后,模型就可以使用了:

f203f5ff21a64ab304e5bc3c064f3d5c.png

接下来,打开vscode,导航至 Cody 的“设置”

59f50c39da3d07441d9f09ecc5f4ae41.png

然后单击“Cody Extension Settings”:

d53b2283dd790bfa8a6cd8e894272099.png

向下滚动并找到“Cody > Autocomplete > Advanced: Provider”,然后选择“unstable-ollama”

de09939ae50c52261b523cd270e5f106.png

现在,使用CodeLlama 7B的Copilot就设置好了!

使用 Cody 和 CodeLlama 7B 进行编码

创建一个 python 文件,写一个排序代码,可以看到:在写好注释与函数头之后,Code Llama已经帮我们写好了剩下的代码:

1b90296770b9381bbe9a2d48a467fd55.png

你还可以在右边栏看到和 Cody 聊天的对话框:

51fb2ebbdf8694fdbc7cc6121ea4fb96.png

我们继续让LLM实现merge方法:

9877bbdef6e1f4785ec12de7fc9889d6.png

还可以在Vscode终端中看到Cody向 Ollama 服务器发出的请求。

92a61f421410717af7a2ceeac5567c21.png

结论

使用Code Llama 7B在本地搭建你自己的Copilot,可以省去gpt4订阅的费用,并且更快地体会到LLM对日常工作带来的便利。探索并应用这些AI工具,我们正在成为这场AI变革趋势的一部分。

- EOF -

文章已经看到这了,别忘了在右下角点个“赞”和“在看”鼓励哦~

推荐阅读  点击标题可跳转

1、Python 项目工程化最佳实践

2、Python 可以比 C 还要快!

3、streamlit,一个超强的 Python 库

4、豆瓣8.9分的C++经典之作,免费送!

5、Python 3.12 版本有什么变化?

回复下方「关键词」,获取优质资源

回复关键词「 pybook03」,领取进击的Grey与小伙伴一起翻译的《Think Python 2e》电子版

回复关键词「书单02」,领取进击的Grey整理的 10 本 Python 入门书的电子版

👇关注我的公众号👇

告诉你更多细节干货

9f3e84b2216b833747ba12e41ec632e2.jpeg

欢迎围观我的朋友圈

👆每天更新所想所悟

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

### VSCode Copilot 订阅费用及支付方式 对于希望利用 GitHub Copilot 提升编码效率的开发者而言,订阅费用是一个重要的考量因素。GitHub Copilot 主要提供两种收费模式:个人用户和团队/企业用户。 针对个人用户的定价为每月 10 美元或每年 100 美元[^1]。这样的年付选项可以节省一定的成本,适合长期使用者考虑。而对于学生以及开源项目维护者,则有资格申请免费版本。 当涉及到团队或企业的使用场景时,存在更为灵活的选择。Copilot Pro 和 Business 方案提供了按月计费的方式,具体价格取决于所选套餐和服务范围;而 Enterprise 客户可以根据需求定制专属方案并享受更多高级特性支持。 至于支付流程方面,在完成注册之后,用户可以通过信用卡、PayPal 或其他在线付款手段来缴纳相应的订阅费用。整个过程简单快捷,并且可以在任何时候通过账户设置页面管理自己的订阅状态,包括取消续订或者更改计划等操作[^2]。 ```python # Python 示例代码展示如何计算不同订阅方式下的总花费 monthly_price = 10 # 单位:美元 annual_saving_rate = 0.9 # 年度订阅折扣率 def calculate_total_cost(monthly_subscription, months=12): """根据给定月份数量返回总支出""" annual_subscription = monthly_price * annual_saving_rate if not monthly_subscription and months >= 12: return round(annual_subscription, 2) return round(months * (monthly_price if monthly_subscription else annual_subscription / 12), 2) print(f"选择月度订阅一年需支付 ${calculate_total_cost(True)}") print(f"选择年度一次性订阅则只需支付 ${calculate_total_cost(False)}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值