手把手教会你搭建属于自己的智能体

本期为大家介绍如何搭建自己的智能体,本期用到的工具是扣子(Coze),Coze 是一个由字节跳动推出的 AI 开发平台,主要用于快速构建、调试和部署基于人工智能的对话机器人(Bot)和智能体(Agent)。它类似于其他低代码/无代码 AI 平台,但更注重灵活性和扩展性,支持用户通过可视化工具或代码深度定制 AI 应用。

本期将演示如何通过Coze搭建地址标准化智能体,内容具体包括:注册Coze、创建知识库、创建数据库、自开发插件、创建工作流以及创建智能体

   1、注册Coze

在首页点击登录,填写手机号收验证码即可完成注册和登录。

图片

   2、创建知识库

在工作空间中,点击资源库,然后点击资源即可创建知识库,Coze支持的知识库类型包括文档、表格和图片,可以导入本地文件,也可以导入在线资源或者是通过api导入。此处仅展示表格的导入和创建。

图片

拖入数据,此处以示例数据做展示

图片

配置表结构,注意表格知识库一定要有索引 

图片

预览,在导入文件时要注意编码,否则会出现乱码的情况,尤其是csv数据,建议导入前先另存为utf8编码的格式

图片

最后等待完成,点击确定即可

图片

导入完成后还可以向知识库中添加内容

图片

   3、创建数据库

首先填写数据库名称和说明

图片

然后添加数据库字段,前4个字段是系统默认创建的,点击新增可以添加自己的字段,点击保存即完成了数据表结构设计

图片

点击测试数据,选择批量导入,可以通过文件导入数据,建议点击下载模板,把数据粘贴进模板后导入,避免报错,一直点下一步即可完成数据导入。

图片

   4、自开发插件

其实工作流中可以通过代码节点去写代码,但是由于代码节点不一定支持特定的库或者模块,所以需要通过开发插件的方式去实现。此处需要写插件去判断点在哪个社区和镇街,后续会应用到工作流中。

输入名称后,选择插件的创建方式,一般选择云侧插件,其中基于已有服务创建是指你已经发布了一个接口,可以把已有的接口配置成插件;在Coze IDE中创建是指在Coze的在线编程页面去创建插件,你可以在线写代码,在线调试。除此之外还有一个端侧插件,端侧插件主要用于需要和硬件交互的情况,例如你对语音助手说播放音乐,助手调用手机的播放音乐方法进行播放,端侧插件的代码都在硬件侧,并且在创建时需要知道硬件支持哪些指令。

图片

页面中间可以编写代码,左下角可以添加依赖包,点击元数据可以配置输出和输出参数,最后在发布插件之前需要测试通过,点击右侧按钮可以进行测试。

图片

开发页面与本地编写代码的方式基本一致,唯一需要注意的是系统自带一个handler函数,这个函数可以理解为主函数,其主要作用是传递和获取参数,因为插件的输入一般来自工作流中上一步的输出,所以需要从外界获取输入参数的值。

   5、创建工作流

填写名称后即可创建工作流

图片

在下方点击添加节点即可向工作流中添加节点,可供添加的节点包括大模型、插件、工作流、业务逻辑、输入输出、会话管理、数据库等,具体可以自行探索。通过线将节点之间连接起来就构成了一个工作流,需要注意的是一个完整的工作流必须包含开始和结束节点,否则无法试运行也无法发布。

点击节点,在页面右侧可以对节点进行配置,包括配置节点的输入和输出,对于大模型节点可以选择模型以及配置模型技能和提示词;对于数据库查询节点可以配置查询条件,更多使方法可以自行探索。

图片

截图展示了一个地址标准化的工作流,包括了调用大模型进行初步标准化以及调用落点插件、判断点面关系插件、代码插件、数据库查询插件对结果进行辅助优化,最后再一次调用大模型对初步标准化结果和辅助优化结果进行整合输出。其中poi_to_geocode节点用于对地址进行落点,panduan节点用于判断点所属社区,代码节点用于简单的结果整合,输出非空结果,最后数据查询节点根据输入社区在数据库中查询对应镇街。

点击下方试运行可以对工作流进行测试,至此地址标准化工作流就算搭建完成了,如果对交互没有需求,此刻已经可以通过API对工作流进行调用。如果追求更好的交互体验就可以用智能体把工作流包起来。

   6、创建智能体

填写名称创建智能体

图片

在智能体编排页面,左侧是对智能体功能的提示词,通过输入提示词,你想实现的大部分功能就可以交给智能体实现。如果不知道怎么写提示词,可以先写一段话表述功能,再点击蓝色小星星,让系统帮你优化提示词。

页面中间是能力配置窗口,可以配置包括插件、工作流、数据库、知识库等各类功能,点击+号即可添加,由于主要功能已经通过工作流实现,所以此处只添加了工作流。

页面右侧是调试窗口,下方输入框可以上传文件以及输入文字,发送后会根据配置返回结果。

图片

编排完成后点击右上角发布按钮即可发布到项目商店,发布到项目商店的智能体可供其他人调用,此处的调用方式是通过窗口对话的方式。

图片

除此之外还可以通过API对智能体进行调用,需要注意的是只有在发布的时候选择了API调用才支持API调用,并且需要配置个人令牌。仿照官网示例,在使用时需要修改Authorization、bot_id以及stream,其中Authorization修改为配置好的个人令牌,bot_id修改为智能体编号,编号在智能体编排页面网址里,stream代表是否流式输出,建议设置为true。

图片

图片

图片

   后话

调用次数限制:

如果通过API调用会有次数限制,因此如果调用需求较大的情况建议尝试本地部署。

文档不全面:

尽管官方提供了使用指南,但是不够全面,例如对智能体调用的介绍,日常使用智能体时有上传文件是较为普遍的需求,但是官方文档仅介绍了常规调用方法。

最后欢迎大家关注vx:小白鸽gis

<think>好的,用户想了解如何在本地环境中搭建智能体。首先,我需要整理已有的引用信息,看看有没有相关的步骤。引用1提到了创建虚拟环境和配置conda环境,这应该是搭建环境的基础步骤。引用4详细描述了如何在本地浏览器配置Agent,包括选择模型URL和保存配置,这部分可能对用户很有帮助。 接下来,用户可能需要具体的操作步骤,比如安装依赖、配置模型等。根据引用3,建立RAG系统可能需要本地Llama模型和向量数据库,所以可能需要提到这些组件的安装和使用。此外,引用4中的WebUI配置步骤也需要详细说明,比如如何访问localhost页面,如何选择Agent Class等。 用户的问题还涉及教程,所以应该分步骤讲解,确保结构清晰。需要检查是否有遗漏的步骤,例如环境准备、模型下载、服务启动等。同时,注意使用正确的LaTeX格式,但根据用户的问题,可能数学公式不多,主要需要代码块和引用标识。 还需要考虑用户可能的后续问题,比如性能优化或应用场景,但根据要求,只需回答当前问题并生成相关问题即可。最后,确保所有引用正确标注,比如引用1到4的相关内容都要在适当的地方提及。</think>### 如何在本地环境中搭建智能体 #### 1. **环境准备** - **创建虚拟环境**:通过 `conda` 隔离项目依赖,避免版本冲突。 ```bash mkdir -p /root/agent studio-conda -t agent -o pytorch-2.1.2 # 创建名为 agent 的虚拟环境[^1] ``` #### 2. **依赖安装** - **模型与工具**:根据需求安装本地模型(如 Llama 2)和向量数据库(用于 RAG 系统)[^3]。例如: ```bash pip install langchain llama-cpp-python faiss-cpu # 安装本地模型和向量数据库支持 ``` #### 3. **配置智能体** - **WebUI 设置**:通过浏览器访问 `http://localhost:7860` 进入 AgentLego WebUI[^4]: 1. **选择 Agent 类型**:在配置页面选择 `lagent.InternLM2Agent`。 2. **输入模型路径**:设置模型 URL 为本地服务地址(如 `http://127.0.0.1:23333`)。 3. **保存配置**:自定义名称(如 `internlm2`)并保存,便于下次加载。 #### 4. **启动本地服务** - **运行模型服务**:若使用本地 Llama 2 模型,需启动 API 服务: ```bash python -m llama_cpp.server --model /path/to/model.bin # 启动本地模型服务 ``` #### 5. **验证与交互** - **动态感知与反馈**:智能体需能感知环境状态(如用户输入或数据变化)并采取动作[^2]。可通过 WebUI 输入测试指令,观察响应结果。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值