背景
auto-coder.chat 和其他的开发工具相比,部署门槛一直比较高,被吐槽的比较厉害。
因为 auto-coder.chat 依赖了 Ray,为什么要用 Ray 呢,是因为我们希望服务化,比如我们所有的 模型代理都是放在Ray多进程管理的,这样auto-coder.chat 就可以很方便的通过名字直接引用。以下图为例,我可以随时启停管理多个模型:
在 Ray 中可以看到详细的进程以及进程日志:
之后在 auto-coder.chat 中,我们只要通过名字就可以随时引用其中任意的模型,比如我想聊天使用 deepseek_r1_chat,那么只要一条指令就可以:
/conf chat_model:deepseek_r1_chat
无需再管理 api key等。
但是缺点也很明显,很多 Windows 用户部署起来有困难,Ray 经常起不来,这种模式的学习成本也略高。
解决方案
为此我们推出了 lite 版本,使用很简单,启动的时候加一个参数:
auto-coder.chat --lite
启动的过程会让要求你输入 deepseek api key, 之后就可以开箱即用了
关于lite 版更多模型管理的知识参考这里:
https://uelng8wukz.feishu.cn/wiki/K3EmwuNrbiAN0CkHMGyc315Wn7f?fromScene=spaceOverview
新版本优势
当然,这次lite 版本不仅仅带来了更加方便的部署。还有几个重要的功能。
1. 单次代码生成长度,我们支持超过8k以上了。也就是如果你的输入为2k,那么最大生成长度就是 64k-2k=66k。 这样一次性可以完成的文件修改会更更多。
2. /chat 和 /coding 指令之间有了更好的整合。我们推荐如下开发流程:
https://uelng8wukz.feishu.cn/wiki/Uic1wlKZ4ivGEEkaF5NcORvmnLe?fromScene=spaceOverview
3. 多模型采样,单模型多次采样,大大提高一次成功率
快快来体验吧。