字节跳动 Coze 正式开源:超详细本地部署指南,开启低代码 AI Agent 开发之旅!

Coze Studio 是字节跳动开源的低代码 AI Agent 开发平台。通过可视化工具,开发者无需或只需少量代码即可快速构建、调试智能体、应用和工作流,大幅降低开发门槛,是构建定制化 AI 产品的理想选择。其基于 Golang (后端) 和 React + TypeScript (前端),采用微服务与 DDD 架构,提供高性能、高扩展性和易于二次开发的框架。

目前开源 Coze Studio 版本支持以下功能:

图片

本文将手把手带您从零开始,在您的本地计算机上部署 Coze Studio 开源版,并配置本地 Ollama 和 OpenRouter 上的模型服务。

1. 安装 Ollama:拥有你的私人大模型

Ollama 是一个轻量级、可扩展的本地大语言模型运行框架。它让在个人电脑上运行强大的语言模型(如 DeepSeek-R1, Qwen 3, Gemma 3 等)变得前所未有的简单。

你不再需要依赖任何第三方的云服务,可以在完全离线的环境中,利用 AI 处理你的私有数据,安全且免费。

访问 https://ollama.com/,根据你的操作系统(macOS, Linux, Windows)下载并安装对应的客户端。安装过程非常直观,一路点击 “下一步” 即可。

图片

拉取模型

安装完成后,我们需要从 Ollama 的模型库中下载一个模型到本地。以广受欢迎的 Qwen 3 模型为例。

Ollama Qwen3 提供的模型列表如下图所示,如果你想要下载量化模型,可以点击 View all 链接:

图片

(图片来源:https://ollama.com/library/qwen3)

不同大小的模型对内存的要求不同:

  • 7B 模型:需要约 8-16GB RAM

  • 14B 模型:需要约 16-32GB RAM

  • 32B 模型:需要约 32-64GB RAM

  • 70B+ 模型:需要 64GB+ RAM

打开你的终端(Terminal 或命令提示符),输入以下命令:

ollama run qwen3:8b
# or 
ollama run qwen3:14b
# or
ollama run qwen3:32b

这个命令会自动从云端下载并解压 Qwen 3 模型。下载速度取决于你的网络状况,请耐心等待。

2. 安装 Docker:应用部署的瑞士军刀

Docker 是一种容器化技术,它可以将应用程序及其所有依赖项打包到一个标准的、可移植的“容器”中。通俗地说,Docker 就像一个标准化的集装箱,而 n8n 就是货物。我们把 n8n 放进这个集装箱里,就可以轻松地在任何支持 Docker 的机器上运行它,而不用担心复杂的环境配置和依赖冲突问题。

访问 https://www.docker.com/,下载并安装 Docker Desktop。它同样为 macOS, Linux 和 Windows 提供了图形化的安装界面。

图片

3. 本地部署 Coze Studio

3.1 环境要求

  • 在安装 Coze Studio 之前,请确保您的机器满足以下最低系统要求: 2 Core、4 GB

  • 提前安装 Docker、Docker Compose,并启动 Docker 服务。

3.2 获取 Coze Studio 源码

使用 git clone 命令前,需要确保本机已安装 Git。

git clone https://github.com/coze-dev/coze-studio.git

如果本机未安装 Git,你也可以通过以下方式下载源码:

图片

3.3 为 Coze Studio 配置模型

Coze Studio 支持的模型服务如下:

  • Ark(火山方舟)

  • OpenAI

  • DeepSeek

  • Claude

  • Ollama

  • Qwen

  • Gemini

使用你平常使用的 IDE 打开 coze-studio 项目,在 backend/conf/model/template 目录下,选择需要使用的模版,并复制到 backend/conf/model 文件夹下。

图片

这里我们复制 model_template_ollama.yaml 模版,并重命名为 model_ollama_qwen3_8b.yaml。我们以 qwen3:8b 为例,配置本地的 ollama 服务:

图片

需要注意的是,id 字段,由开发者自行定义,必须是非 0 的整数,且全局唯一。对于已上线的模型,请勿修改模型 id,否则可能导致模型调用失败。在配置模型时,你可以运行 ollama list 查看本地已安装的模型。

配置完本地的 ollama 服务,我们来继续配置 OpenRouter 提供的线上服务。这里我们复制 model_template_deepseek.yaml 模版,并重命名为 model_openrouter_ds_v3.yaml。我们以DeepSeek-V3 服务为例,配置线上的 OpenRouter 服务。

图片

如果你还没有 DeepSeek-V3 的 api_key,可以访问 https://openrouter.ai/deepseek/deepseek-chat-v3-0324:free/api 地址,通过 Create API Key 按钮创建新的 API Key。

图片

3.4 部署并启动服务

配置好模型之后,运行以下命令,即可在本地部署 Coze Studio:

cd docker
cp .env.example .env
docker compose --profile '*' up -d

首次部署并启动 Coze Studio 需要拉取镜像、构建本地镜像,可能耗时较久,请耐心等待。在 Docker Desktop 中,可以看到 Coze Studio 所有服务的状态。当 coze-server 的服务状态变成绿色,表示 Coze Studio 服务已成功启动。

图片

当你修改配置文件之后,需要执行以下命令重启服务,使配置生效。

docker compose --profile '*' restart coze-server

3.5 使用 Coze Studio

启动服务后,通过浏览器访问 http://localhost:8888/ 即可打开 Coze Studio。

图片

首次使用时,输入邮箱和密码,点击 Register 注册新的用户。成功注册之后,点击右上角的 Create 按钮,然后选择 Create agent 选项,具体如下图所示:

图片

接着,输入 Agent 名称,再点击确认:

图片

进入 Agent 设计界面之后,点击模型列表,即可查看 Coze Studio 已配置的模型。

图片

通过右侧底部的 Chat 输入框,你可以测试模型是否能正常工作:

1. 测试本地 Ollama qwen3:8b 服务

图片

2. 测试线上 OpenRouter DeepSeek-V3 服务

图片

由上图可知,前面已配置的大语言模型服务,都能正常工作。如果出现异常,你可以通过查看 coze-server 的日志,来排查异常:

图片

至此,你已经成功在本地搭建 Coze Studio,尽情发挥你的想象力去创造 AI Agent 吧!

我们该怎样系统的去转行学习大模型 ?

很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

<think>好的,我现在需要处理用户关于字节跳动Coze平台的技术和项目的查询。首先,我得回顾之前的对话和用户提供的引用内容,确保回答准确且符合用户需求。 用户之前提到想了解Coze的技术或项目资料,并且系统级指令要求生成相关问题,同时引用了两篇资料。引用[1]对比了Coze与其他AI平台,强调其无代码、插件生态和多平台发布等特性。引用[2]则概述了Coze的功能和适用场景,强调其低门槛和广泛应用。 接下来,我需要整理Coze的技术架构、核心功能、应用场景等方面的信息。根据引用,Coze的架构可能包括大模型支持、插件系统、知识库集成和Workflow引擎。核心功能方面,无代码开发、多平台发布和插件生态是关键点。应用场景如智能客服、企业助手、教育辅助等需要提到。 还要确保回答结构清晰,分点说明,并使用正确的中文和LaTeX格式。例如,在提到技术架构时,可能需要用$$...$$来独立展示公式,但当前内容以技术描述为主,可能不需要数学公式。不过需要检查是否有需要的地方,比如如果涉及算法或技术指标,但根据现有资料,可能暂时不需要。 生成的相关问题需要围绕用户可能感兴趣的方面,比如技术优势、应用案例、对比其他平台、开发流程等。确保问题具体且有引导性,帮助用户深入探索。 最后,验证所有引用是否正确标注,并自然融入回答中。同时,确保回答符合系统指令中的格式要求,没有使用任何markdown,行内公式用$...$,独立公式单独成段,虽然这次回答可能较少涉及数学内容,但需要保持警惕。</think>字节跳动 Coze 技术架构与应用解析 1. 技术架构核心特性 - **大模型集成**:支持多模态大模型底座(如云雀大模型)作为核心推理引擎,提供自然语言交互能力[^2] - **插件生态**:通过标准化接口实现第三方服务集成,支持天气查询、数据分析等扩展功能 - **知识库增强**:允许上传文档建立私有知识库,采用向量检索技术提升回答准确性 - **Workflow引擎**:可视化流程编排工具,支持复杂业务逻辑的搭建(如多步骤决策系统) 2. 核心功能优势 ```python # 典型应用场景代码示意(知识库问答) def knowledge_query(question): embedding = model.encode(question) results = vector_db.search(embedding) return generate_answer(question, results) ``` - 无代码开发:通过拖拽式界面实现AI应用构建 - 多平台发布:支持微信、飞书、Discord等一键部署 - 实时更新:采用$O(1)$级配置同步机制,修改后即时生效 3. 典型应用场景 - 智能客服系统(7*24小时自动化响应) - 企业知识管理助手(如合同解析、数据报表生成) - 教育领域智能导师(支持$LaTeX$公式解析:$$f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}$$)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值