本案例由开发者:胡琦提供
1 概述
1.1 背景介绍
MaaS(即ModelArts Studio 大模型服务平台)是华为云AI开发者推出的一站式大模型开发平台,支持开发者一键体验大模型能力,快速构建大模型应用。Maas平台提供大模型训练、推理、部署、管理、监控等全生命周期管理能力,帮助开发者快速构建大模型应用,加速AI开发。
开发者空间是华为云面向开发者提供的云上开发环境,支持开发者快速创建、部署、调试、运行、管理应用。开发者空间提供丰富的开发工具和资源,支持开发者快速构建应用,加速开发。
Dify.AI是一个功能强大的Agent开发框架,通过可视化的工作流编排方式,让开发者能够快速构建聊天助手、知识库、Agent等智能应用,大幅提升AI应用开发效率。
通过本案例实操,让开发者深入了解如何通过Maas调取API与Dify结合快速构建聊天助手。
1.2 适用对象
- 企业
- 个人开发者
- 高校学生
1.3 案例时间
本案例总时长预计60分钟。
1.4 案例流程
{{{width="45%" height="auto"}}} 说明: ①通过开发者空间云主机的Firefox浏览器访问并开通 ModelArts Studio 模型即服务。本案例中采用的 Qwen2_5-72B-Instruct 。 ②通过终端从 https://gitcode.com/huqi/huaweicloud-dify 获取安装脚本,安装脚本基于 Docker 安装并部署 Dify.AI。 ③通过Firefox浏览器访问开发者空间云主机部署的 Dify.AI,完成后续模型服务配置、应用开发等操作。
1.5 资源总览
本案例预计花费总计0元。
| 资源名称 | 规格 | 单价(元) | 时长(分钟) |
|---|---|---|---|
| 云主机 | 基础版本 | 免费 | 60 |
2 配置MaaS模型服务
2.1 领取Token额度
进入云主机后,打开云主机桌面火狐浏览器。输入访问地址,本案例在华东二区域体验,登录华为云帐号后进入Token领取界面:
https://console.huaweicloud.com/modelarts/?region=cn-east-4&locale=zh-cn#/model-studio/deployment,然后点击预置服务,点击免费服务。 ModelArts Studio为开发者提供了千万免费 token 额度,可用于体验 Qwen、Chatglm 等系列模型。Qwen2.5 系列预置服务还支持 Function Calling,可以用于构建 Agent。
本案例中选择Qwen2_5-72B-Instruct-1128,点击领取额度。

领取完成后,点击对应服务操作栏中的调用说明,这里我们可以获取两个关键信息:模型名称和API地址。 
2.2 创建API Key
点击左侧菜单栏,管理与统计 – API Key管理,右侧界面中点击创建API Key。此处支持最多可创建5个密钥,密钥只会在新建后显示一次,请保存好。至此我们获取第三个关键信息:密钥。

至此,我们完成了ModelArts Studio的基础配置,并且获取了三个关键配置信息:模型名称、API地址和密钥。
2.3 调试大模型API
在Terminal Emulator窗口中使用curl脚本进行大模型API的调试。其命令如下:
curl -X POST "yourBaseUrl" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer yourApiKey" \
-d '{
"model": "yourModelName",
"max_tokens": 20,
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你好"}
],
"stream": false,
"temperature": 1.0
}'
这里将前面获取的三个关键信息分别替换命令中的关键字,对应关系如下:
- 模型名称:yourModelName
- API地址:yourBaseUrl
- 密钥:yourApiKey
Terminal Emulator窗口中输入修改完后的curl脚本,得到如下日志。

至此则证明API配置可用。
3 安装和配置Dify.AI
3.1 安装Dify.AI
在云主机桌面右击打开Open Terminal Here。

在终端输入以下命令安装Dify.AI。
# 下载安装脚本
sudo wget -P /home/ https://raw.gitcode.com/huqi/huaweicloud-dify/raw/main/install.sh
# 执行安装脚本
sudo bash /home/install.sh

安装完毕后显示安装过程结束,详细日志请查看:/var/dify-install.log即为安装成功。打开桌面火狐浏览器,输入http://127.0.0.1,即可访问Dify.AI。
如果端口80无法访问,我们可以通过命令去查看端口的使用情况,确定Dify.AI使用端口。
# 查看端口使用情况
sudo netstat -tulnp | grep docker

首次登录需要注册管理员账号,依次填写邮箱、账号、密码。

3.2 配置Dify.AI
进入Dify平台,点击右上角设置,进入模型供应商页签,选择OpenAI-API-compatible供应商,并点击安装,关键信息配置如下:
- 模型类型:LLm;
- 模型名称:输入步骤2.1中获取的模型名称;
- API Key:请输入步骤2.2中获取的API Key;
- API endpoint URL:请输入步骤2.1中获取的API地址,并删除最后的chat/completions部分;
- Completion mode:请选择对话;
- 模型上下文长度/最大token上线:保持默认;
- Function calling:保持默认不支持;
- Stream function calling:保持默认不支持;
- 流模式返回结果的分隔符:保持默认

4 Agent功能实现
4.1 构建Agent
在Dify(http://127.0.0.1/apps)平台,点击工作室->创建空白应用。

进入创建空白应用页签后,点击Agent,输入应用名称 & 图标以及描述后点击创建。

4.2 Agent设置
在右上角点击Agent设置,选择上一步配置好的模型进行使用。
Function Call模式会报错,实际使用代理模式,下图为Agent设置的示意图。 
4.3 编排提示词设置
在编排页面在提示词文本框中输入以下信息:
你是一位乐于助人的AI助手。在回答用户问题时,你需要遵循以下原则:
1. 始终使用自然语言解释你将要采取的行动
2. 在调用工具之前,说明你要使用哪个工具以及原因
3. 在获取信息的过程中,清晰地描述你正在做什么
4. 永远不要返回空的回复 - 确保用自然语言解释你的每个步骤
举例说明:
当用户询问今日热点新闻时,你应该这样回复:
"让我使用新闻搜索工具为您查询今日热点新闻..."
然后再进行具体的工具调用。
重要提示:
- 先表达你的理解和计划
- 再使用相应的工具
- 每次回复都必须包含对用户的清晰解释
基于以上原则,请根据用户的问题,给出相应的回答。

4.4 编排工具设置
在编排页面的下方的工具区域的右侧,点击添加,按需求添加工具并与模型进行对话调用。
Dify内置有丰富的插件,同时支持自定义工具的创建。 
4.5 调试Agent
配置完成后可以与Agent进行调试和测试。

我们可以使用页面与Agent进行交流,也可以通过API的方式与Agent进行沟通。 

总结 通过本案例,我们了解了如何使用ModelArts Studio平台和开源Agent框架Dify.AI构建个性化聊天助手。ModelArts Studio提供了丰富的开源大模型资源,支持一键部署模型服务并通过API调用。Dify.AI则是一个功能强大的Agent开发框架,通过可视化的工作流编排方式,让开发者能够快速构建聊天助手、知识库、Agent等智能应用,大幅提升AI应用开发效率。最重要的开发者空间为我们提供了便捷的开发环境,让我们更专注于业务开发。
- 想更多了解ModelArts内容,可以访问ModelArts用户指南(Studio)
- 想了解更多Dify.AI内容,可以访问:https://docs.dify.ai/
6万+

被折叠的 条评论
为什么被折叠?



