昨夜,程序员圈突然炸开了锅,很多开发者在凌晨收到了一则令人兴奋的消息——Coze 扣子(Coze)开源了!这是字节跳动推出的一款超级强大的 AI Agent 开发平台,它不仅为开发者提供了完善的开发工具,还极大降低了开发门槛,开源的消息瞬间引发了广泛关注。
这次开源主要发布了两个项目,分别是 Coze Studio 和 Coze Loop,它们的开源地址如下:
- Coze Studio
GitHub 开源地址:https://github.com/coze-dev/coze-studio - Coze Loop
GitHub 开源地址:https://github.com/coze-dev/cozeloop
什么是 Coze Studio?
Coze Studio 是一站式的 AI Agent 开发工具,它为开发者提供了从开发到部署所需的所有核心技术,帮助你快速构建专业的 AI Agent。无论是大模型的使用、Prompt 设计、RAG(检索增强生成)、插件开发,还是复杂的工作流编排,Coze Studio 都为你提供了一个极简、易用的开发环境。
Coze Studio 主要特点:
- 开箱即用:你可以基于现有的模板和编排框架,快速构建各种 AI Agent,将创意转化为现实。无论是企业级应用还是小型创意项目,Coze Studio 都能快速满足需求。
- 低代码/零代码开发:通过可视化设计工具,开发者可以实现零代码或低代码的开发方式,极大地降低了 AI 应用开发的门槛。
- 高度集成的开发环境:Coze Studio 提供了所有开发和部署所需的核心技术,确保开发者专注于创造 AI 的核心价值,而无需再为底层架构而烦恼。
技术架构:
- 后端使用 Golang 开发,前端采用 React + TypeScript,整体架构基于微服务,并遵循领域驱动设计(DDD)原则构建。
- 这种架构使得 Coze Studio 在高性能和高扩展性上表现突出,适合应对复杂的业务需求。
为什么选择 Coze Studio?
Coze Studio 是字节跳动新一代 AI Agent 开发平台的开源版本,专为开发者提供了一个完整的低代码 AI 产品开发平台。它不仅可以简化开发流程,还能帮助开发者轻松调试、部署和优化 AI 应用,是构建智能化工作流和业务逻辑的理想工具。
什么是 Coze Loop?
Coze Loop 是一个面向开发者的全生命周期管理平台,专注于 AI Agent 的开发与运维。Coze Loop 为开发者提供了从开发、调试、评估到监控的全套解决方案,帮助开发者高效管理 AI Agent 的开发、上线和维护。
Coze Loop 主要特点:
- 全生命周期管理:Coze Loop 覆盖了从开发、调试、评估到监控的全过程,极大地简化了 AI Agent 的开发与运维流程。你可以轻松管理 AI Agent 的状态和效果,确保它们始终保持最佳状态。
- Prompt 开发与优化:Coze Loop 提供了完善的 Prompt 开发工具,支持从编写、调试、优化到版本管理的全流程。通过可视化的 Playground 功能,开发者可以实时测试和优化 Prompt。
- 智能评测和监控:Coze Loop 提供了强大的评测能力,可以对 AI Agent 的输出效果进行多维度自动化检测,包括准确性、简洁性和合规性等。此外,Coze Loop 还提供了全面的监控能力,帮助开发者实时追踪 AI Agent 的执行过程,快速捕捉异常状态和中间结果。
Coze Loop 的核心功能:
- Prompt 开发与调优:通过 Coze Loop,开发者可以轻松进行 Prompt 编写与优化,借助实时的交互式测试和调试,提升开发效率。
- 多维度评测:Coze Loop 的评测模块帮助开发者全方位评估 AI Agent 的表现,确保智能体的输出效果达到最佳水平。
- 全链路可视化监控:Coze Loop 提供了完整的可视化监控功能,帮助开发者全面了解 AI Agent 的执行过程,实时捕捉问题并进行优化。
Coze Studio 部署
环境要求:
在安装 Coze Studio 之前,请确保您的机器满足以下最低系统要求:
- 2 Core、4 GB
- 提前安装 Docker、Docker Compose,并启动 Docker 服务。
部署步骤:
1. 获取源码:
# 克隆代码
git clone https://github.com/coze-dev/coze-studio.git
2. 配置模型:
从模板目录复制 doubao-seed-1.6 模型的模板文件,并粘贴到配置文件目录。
cd coze-studio
# 复制模型配置模板
cp backend/conf/model/template/model_template_ark_doubao-seed-1.6.yaml backend/conf/model/ark_doubao-seed-1.6.yaml
3. 修改配置文件:
在配置文件目录下,进入 backend/conf/model,打开复制后的文件 ark_doubao-seed-1.6.yaml。
设置以下字段并保存文件:
- id:Coze Studio 中的模型 ID,由开发者自行定义,必须是非 0 的整数,且全局唯一。模型上线后请勿修改模型 id。
- meta.conn_config.api_key:模型服务的 API Key,在本示例中为火山方舟的 API Key,获取方式可参考获取火山方舟 API Key。
- meta.conn_config.model:模型服务的 model ID,在本示例中为火山方舟
doubao-seed-1.6模型接入点的 Endpoint ID,获取方式可参考获取 Endpoint ID。
4. 部署并启动服务:
首次部署并启动 Coze Studio 需要拉取镜像、构建本地镜像,可能耗时较久,请耐心等待。部署过程中,你会看到以下日志信息。如果看到提示 "Container coze-server Started",表示 Coze Studio 服务已成功启动。
# 启动服务
cd docker
cp .env.example .env
docker compose --profile '*' up -d
Coze Loop 部署
准备工作
在参考本文安装 Coze Loop 开源版之前,确保您的软硬件环境满足以下要求:
| 项目 | 说明 |
|---|---|
| Go | - 已安装 Go,且版本为 1.23.4 及以上版本。 - 配置 GOPATH,同时将 ${GOPATH}/bin 加入到环境变量 PATH 中,保证安装的二进制工具可找到并运行。 |
| Docker | 提前安装 Docker、Docker Compose,并启动 Docker 服务。详细操作请参考 Docker 文档: - macOS:推荐使用 Docker Desktop 安装,参考Docker Desktop For Mac 安装指南。 - Linux:参考Docker 安装指南和Docker Compose 安装指南。 - Windows:推荐使用 Docker Desktop 安装,参考Docker Desktop For Windows 安装指南。 |
| 模型 | 已开通 OpenAI 或火山方舟等在线模型服务。目前支持的模型服务列表可参考模型配置。 |
安装 Coze Loop
步骤一:获取源码
执行以下命令,获取 Coze Loop 最新版本的源码。
# 克隆代码
git clone https://github.com/coze-dev/cozeloop.git
# 进入cozeloop目录下
cd cozeloop
步骤二:配置模型
正式安装 Coze Loop 开源版之前,你需要准备可选的模型,否则访问 Coze Loop 开源版时将无法选择模型来启动 Prompt 调试或评测。以下以 OpenAI 和火山方舟模型为例,演示配置模型文件的操作步骤。对于 Llama 等其他模型,你可以参考模型配置文档填写配置文件。
进入目录 conf/default/app/runtime/。
编辑文件 model_config.yaml,修改 api_key 和 model 字段。以下内容表示为 Coze Loop 开源版配置火山方舟的豆包模型、OpenAI 模型。使用以下内容覆盖原文件,然后修改其中的 api_key 和 model,将其替换为你的 OpenAI 和火山方舟模型的配置参数。
models:
- id: 1
name: "doubao"
frame: "eino"
protocol: "ark"
protocol_config:
api_key: "727exxxxxx" # 火山方舟 API Key,获取方式可参考 https://www.volcengine.com/docs/82379/1541594
model: "ep-xxxxxxxx" # 火山方舟模型接入点的 Endpoint ID,获取方式可参考 https://www.volcengine.com/docs/82379/1099522
param_config:
param_schemas:
- name: "temperature"
label: "生成随机性"
desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
type: "float"
min: "0"
max: "1.0"
default_val: "0.7"
- name: "max_tokens"
label: "最大回复长度"
desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
type: "int"
min: "1"
max: "4096"
default_val: "2048"
- name: "top_p"
label: "核采样概率"
desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
type: "float"
min: "0.001"
max: "1.0"
default_val: "0.7"
- id: 2
name: "openapi"
frame: "eino"
protocol: "openai"
protocol_config:
api_key: "***" # OpenAI API Key
model: "***" # OpenAI 模型 ID
param_config:
param_schemas:
- name: "temperature"
label: "生成随机性"
desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
type: "float"
min: "0"
max: "1.0"
default_val: "0.7"
- name: "max_tokens"
label: "最大回复长度"
desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
type: "int"
min: "1"
max: "4096"
default_val: "2048"
- name: "top_p"
label: "核采样概率"
desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
type: "float"
min: "0.001"
max: "1.0"
default_val: "0.7"
保存文件。
步骤三:启动服务
执行以下命令,使用 Docker Compose 快速部署 Coze Loop 开源版。
# 启动服务,默认为开发模式
docker compose up --build
结语
Coze 扣子(Coze)开源的发布,标志着 AI Agent 开发进入了一个全新的阶段。通过 Coze Studio 和 Coze Loop,开发者不仅可以轻松构建、调试和部署 AI Agent,还能通过可视化工具和低代码/零代码开发大幅提升开发效率。这两个开源项目无疑为开发者提供了一个理想的 AI 开发平台,助力大家更好地探索和实践 AI 的无限可能。
关注矩阵之芯 回复“coze”获取coze相关资料和官方群
1033

被折叠的 条评论
为什么被折叠?



