auto-coder.chat Lite 版本来啦

背景

auto-coder.chat 和其他的开发工具相比,部署门槛一直比较高,被吐槽的比较厉害。

因为 auto-coder.chat 依赖了 Ray,为什么要用 Ray 呢,是因为我们希望服务化,比如我们所有的 模型代理都是放在Ray多进程管理的,这样auto-coder.chat 就可以很方便的通过名字直接引用。以下图为例,我可以随时启停管理多个模型:

569a61cc1bdf3044649c3e7a2170cc20.png

在 Ray 中可以看到详细的进程以及进程日志:

46b9bc1a07368b5820d17807c8d9d289.png

之后在 auto-coder.chat 中,我们只要通过名字就可以随时引用其中任意的模型,比如我想聊天使用 deepseek_r1_chat,那么只要一条指令就可以:

/conf chat_model:deepseek_r1_chat

无需再管理 api key等。

但是缺点也很明显,很多 Windows 用户部署起来有困难,Ray 经常起不来,这种模式的学习成本也略高。

解决方案

为此我们推出了 lite 版本,使用很简单,启动的时候加一个参数:

auto-coder.chat --lite

启动的过程会让要求你输入 deepseek api key, 之后就可以开箱即用了

132dbdad576777c3dfebe76a2d1531ec.png

关于lite 版更多模型管理的知识参考这里:

https://uelng8wukz.feishu.cn/wiki/K3EmwuNrbiAN0CkHMGyc315Wn7f?fromScene=spaceOverview

新版本优势

当然,这次lite 版本不仅仅带来了更加方便的部署。还有几个重要的功能。

1. 单次代码生成长度,我们支持超过8k以上了。也就是如果你的输入为2k,那么最大生成长度就是 64k-2k=66k。 这样一次性可以完成的文件修改会更更多。

2. /chat 和 /coding 指令之间有了更好的整合。我们推荐如下开发流程:

https://uelng8wukz.feishu.cn/wiki/Uic1wlKZ4ivGEEkaF5NcORvmnLe?fromScene=spaceOverview

3. 多模型采样,单模型多次采样,大大提高一次成功率

ea7afd4d31e7306c3d951fce597903b5.png

快快来体验吧。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值