字节的 Coze(扣子) 大家肯定不陌生,上线一年多,功能不断打磨,再加上扣子空间火出圈,已经是 C 端工作流应用的头部产品,也已经帮助很多小伙伴实现了效率提升甚至带来不错的收益。
字节宣布开源了 Coze 的两大核心项目 Coze Studio 和 Coze Loop,再加上之前开源的 Eino,已经初步形成了大模型智能体的开发、编排、运维开源全家桶。

开源版的 Coze 好用吗?字节为什么要开源?会给 Agent 赛道的其他玩家带来什么影响?我来聊聊自己的个人看法。
Coze 这次究竟开源了什么?
Coze 今天开源了两个项目,Coze Studio 和 Coze Loop。
不过显然 Coze Studio 热度更高,我写这个回答时已经快 4k star 了,而罗盘那边只有 800 多个 star。
至于二者的区别嘛,简单来说,Coze Studio 就是大家常用的 Agent 搭建平台扣子;Coze Loop 对应的是 Agent 运维平台扣子罗盘。
Coze Studio:Agent 可视化开发工具
Coze Studio 是扣子的核心引擎,提供构建 Agent 所需的全部能力。

- • 核心能力复刻扣子在线版,开箱即用,快速上手。
- • 支持智能体/应用创建,支持插件、工作流、数据库、知识库、Prompt 等资源管理。
- • API & SDK:支持对话和工作流 API,也可以通过 ChatSDK 集成到业务系统。
Coze Loop:Agent 全生命周期运维管家
如果说 Studio 负责「生」,那 Loop 就是负责「养」和「优」,它是一个专注于 AgentOps 运维的解决方案。

借助于 Loop,开发者可以把 Prompt 的玄学变成科学:
- • 全流程开发:通过可视化的 Playground,开发者可以直观对比不同模型、不同 Prompt 的输出效果,实现对 Prompt 编写、调试、优化乃至版本控制的全流程管理。
- • 系统化评测:评测模块可以对 Prompt 或 Agent 的回复进行多维度自动化检测。
- • 全链路观测:工作流开发排查是老大难,Loop 能完整记录从用户输入到最终输出的每一个环节,包括 Prompt 解析、模型调用、工具执行等,捕获中间过程和异常状态,让 Agent 运行的黑盒变透明。
可以说,字节这次开源,是直接把一套经过线上用户大规模验证的「Agent 生产线 + 质检中心」交付到了开发者手中。
技术栈上,Coze 的后端采用 Go,前端是 React + TypeScript,整体是微服务架构和 DDD 设计,为二次开发提供了良好的基础。
字节为什么要开源 Coze?
Coze 是个 C 端的商业化平台,已经服务了上万家企业、数百万开发者,关于字节为什么会如此慷慨地开源,官方说法是「致力于降低 AI Agent 开发与应用门槛,鼓励社区共建和分享交流」,我自己有两个猜测。
加速社区生态建设,构建 Agent 开发的共识与标准
Agent 赛道玩家众多,现在对于生态的争夺趋于白热化,行业目前并没有绝对的共识和标准,未来也不会由一家公司定义所有场景。
在开源之前,扣子就已凭借其极低的门槛和趣味性,积累了庞大的 C 端用户基础。不少民间高手已经在扣子上开发出各种实用的工作流,并通过各种渠道出售自己的 Bot 或解决方案,赚到了第一桶金。这说明扣子的产品力和实用性已经得到了市场的验证。
但是!一个封闭的平台也许可以在 C 端成功商业化,但无法满足 B 端生态爆发的要求。
通过开源,Coze 大幅降低了大模型应用开发的门槛,客观上能让更多企业、组织和开发者受益。

通过吸引更多开发者,共同构建丰富的插件和应用生态,他们会熟悉 Coze 的技术栈;而当足够多的开发者和企业基于 Coze 进行开发时,其开发范式就有可能成为行业的「事实标准」,构建起比短期利润更强大的护城河。
依托火山引擎,让 Coze 成为 Agent Infra 的基础设施
很多人猜测的未来会有「商业版」Coze,确实有这个可能,毕竟开源版负责建立生态,商业版负责在高价值客户上实现盈利的做法,是在开源世界里被反复验证的成功商业模式。
但我觉得吧,格局可能还是小了。
你想,开发者把开源版玩的再 6,一旦要投入生产环境、服务更多用户,就需要稳定、高性能的算力、模型服务和数据存储服务。此时,无缝集成的火山引擎无疑是是阻力最小、最具性价比的选择。
换句话说,开源的前端 SaaS 应用是吸引开发者的流量入口,真正的商业价值是后端的 IaaS 云服务、MaaS 模型服务。

以上纯属个人猜测,当然也不排除字节会把 Coze 的云服务和商业化两手一起抓,哈哈。我是觉得,如果真的从「大棋论」来分析,Coze 开源版的前景是光明的,不会是一锤子的 KPI 项目。
把开源版 Coze 用起来
对于开发者来说,把 Coze Studio 跑起来也就几分钟的事情,硬件要求不高(2核4G也能跑),提前装好 docker 就行。
第一步,下载代码库。
git clone https://github.com/coze-dev/coze-studio.git
第二步,配置模型文件,路径是backend/conf/model/template/,预置了豆包、OpenAI、Gemini、Claude、DeepSeek、Qwen、Ollama 等模型的配置文件。
大家根据自己的实际需要,复制相应的配置文件,并填写可用的 API key 即可。
第三步,Docker,启动!
cd docker cp .env.example . env docker compose --profile '*' up -d

服务启动之后,访问http://localhost:8888/就能打开 Coze Studio 了。
注意第一次使用的时候要输入邮箱和密码,然后点击注册:

给人的第一印象其实就是一个简洁版的扣子:

仔细比较一下的话,确实少了一些模块,比如在创建应用时,开源版少了 UI Builder:

比如在构建智能体时,开源版少了多智能体、语音输入输出:

工作流中的绝大多数节点都是可用的,缺了多模态生成的部分:

官方也列出了支持的功能清单:
| 功能模块 | 功能点 |
|---|---|
| 模型服务 | 管理模型列表,可接入OpenAI、火山方舟 等在线或离线模型服务 |
| 搭建智能体 | * 编排、发布、管理智能体 * 支持配置工作流、知识库等资源 |
| 搭建应用 | * 创建、发布应用 * 通过工作流搭建业务逻辑 |
| 搭建工作流 | 创建、修改、发布、删除工作流 |
| 开发资源 | 支持创建并管理以下资源: * 插件 * 知识库 * 数据库 * 提示词 |
| API 与 SDK | * 创建会话、发起对话等 OpenAPI * 通过 Chat SDK 将智能体或应用集成到自己的应用 |
大家怎么看?我觉得如果以自行部署开发,或者完全本地部署+本地模型的视角来看,开源版 Coze 的核心组件是足够用来搭建工作流智能体的。
当然了,官方支持的功能肯定是多多益善的,Coze 的开源才刚刚第一天,希望后续能给社区带来更多功能模块。
虽不完美,但未来可期
如果让我评价 Coze 的开源,我的看法是:当前开源的核心模块已经足够解决大多数场景和需求,但功能尚不完美(比如不能从线上扣子导出应用或工作流导入到开源版),但未来绝对可期。
今天我在社区里也看到了一些声音,大部分是在说 Coze 开源版功能不全的问题。但我觉得,大家太苛求「绝对完整彻底的开源」了。
开源 ≠ 做慈善,商业公司的开源项目,大都会在社区版和商业版之间作出区分。Coze Studio 目前开源的是最核心的引擎能力,已经足以让开发者构建出功能完整的工作流 Agent。
如果开源社区能给予正向的反馈甚至贡献,积极参与到插件开发、Bug 修复、生态构建中,让官方看到开源社区的巨大潜力,未来也许就能逐步开源更多功能。
我今天加了官方的技术交流群,已经有 1000 人了,发现群里的声音和外界大不相同。群里大都在讨论部署和使用的话题,我也看到了开发者回复的很多消息,还是很有诚意的,一些大家反映强烈缺失的功能已经在内部讨论了。
而那些面对一个刚开源第一天的项目,就吵吵着「开源不彻底就是彻底不开源」的人,恐怕不是开源的贡献者。
开源不应该是某个公司的单方面付出,开源的精神也从来不是坐享其成,而是共同建设。
这正是开源的魅力所在:如果你觉得它不够好,那就去帮助它变得更好。
工作流 Agent 的赛道会走向何方
最后聊聊竞争。Coze 一开源,我发现个有趣的事情,Dify 和 n8n 的用户群比 Coze 的用户群更热闹,反应更大。
我猜扣子的一些用户对本地部署的需求本身并不高,而 Dify 和 n8n 的用户群体,本身就对本地部署甚至二次开发有着极大的需求。
今年以来,「拖拉拽式搭建工作流 Agent」迎来了极佳的发展契机,一方面是随着模型的成熟,Agent 概念开始落地;另一方面就是 DeepSeek 一体机,几乎所有的一体机都会搭建类似的「智能体平台」,用低代码的方式降低非技术用户的学习成本。
毕竟前端形态上都是「拖拉拽式搭建工作流 Agent」,所以这几家看上去可能会形成竞争。
我们今天不聊这几个平台在功能上的差异,那可能是几万字都写不完的话题。但是如果从开源协议上讲,Coze 反而是这三家里最宽松的那个。
我整理了一下开源协议的差别:
| 特性 | Coze | Dify | n8n |
|---|---|---|---|
| 许可证名称 | Apache License 2.0 | Modified Apache License 2.0 | Sustainable Use License |
| 商业用途 | ✅ 完全允许可以用于任何商业目的,包括转售、构建SaaS服务等。 | ⚠️ 有条件允许 可用于企业内部或作为应用的后端。但禁止提供多租户服务 (即一个实例服务多个租户/工作区),除非获得商业授权。 | ❌ 严格限制 仅限于内部业务目的 (Internal business purposes)。禁止直接销售或提供其核心功能作为付费服务。 |
| 修改与再分发 | ✅ 允许只需保留版权和声明修改。 | ⚠️ 有限制 可以修改,但如果使用其前端,禁止移除或修改 Dify 的 LOGO 和版权信息。 | ⚠️ 有限制 可以为内部目的修改,但禁止为商业目的分发。禁止移除版权标识。 |
| 核心限制总结 | 几乎没有限制,非常自由。 | 不能拿它做多租户SaaS,不能去掉前端品牌标识。 | 不能拿它直接或间接赚钱,只能自己公司内部用。 |
| 贡献者协议 | 遵循标准的 Apache 2.0 贡献规则。 | 贡献者需同意其代码可被用于商业用途,且官方可修改协议。 | 贡献者需签署 CLA,授权 n8n 更改许可证及将代码用于商业目的。 |
换句话说,Coze 采用没有任何附加协议的 Apache 2.0 协议,允许免费商用,允许二次开发且后续版本可以闭源使用,可以说对下游开发者几乎没有任何商业化限制。
这种宽松的商业条款对很多做外包平台的人是有吸引力的。今天还在 Coze Studio 的 Issue 看到开发者开玩笑说:「以前照着 Coze 抄,现在好了,直接用上 Coze 了」

从下面 +1 的人来看,这大概不是个例。
所以,如果 Coze 能坚持把开源做下去,把功能和生态完善好,不愁没有开发者支持。
小结
总而言之,开源就是好事!开源就该鼓励!Coze 的开源让技术平权、AI 普惠再进一步。一个经过数百万用户验证的强大 Agent 开发工具,正以一种几乎零成本的方式触手可及。
如果你对 Agent 开发感兴趣,不妨部署体验一下 Coze Studio 和 Coze Loop;如果你有能力开发功能或插件,也可以试试成为 Coze 开源版的 Contributor。
开源只是个开始,Coze/Agent 的未来,就看大家的想象力和执行力了。
我们该怎样系统的去转行学习大模型 ?
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
在这个版本当中:
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

三、大模型系列视频教程(免费分享)

四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的
核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

1504

被折叠的 条评论
为什么被折叠?



