本地部署 AI 智能体,Dify 搭建保姆级教程:票据(发票/火车票)识别工作流 API 对接

搭建一个dify 工作流,不是目的。我们希望的是可以在具体的业务中使用起来。所以避免不了要通过api 的方式。
本文将教会你如何一步一步对接一个工作流,看完这个教程,我相信你可以对接所有的工作流。
工作流搭建教程: 票据识别工作流搭建
一个工作流,本想着一会就对接完毕,没想到坑不少。
每一个细节不对,都无功而返,折腾了几个小时。
终于走完了全流程。废话不多说,来,走起。

一、首先,阅读:票务识别工作流的api:

无论对接什么平台,仔细阅读api 是必须的。

可以看出这个工作流包含7个接口。

因为我们的目的是执行工作流,所以第一个接口,必须是执行工作流;

重点关注:执行 workflow

从图中可以看出,这个接口有3个参数:

  • response_mode: 很好理解。使用推荐的 streaming 即可。

  • User:一个唯一标识符。也好理解。

  • Inputs: 这个就麻烦了,看不懂。inputs 解释的最后一句话,如果是文件类型,就需要一个以下files 中所描述的对象。files 如下图所示:

​ 先读files, 属性 transfer_method 很重要。即文件选择本地还是网络。即支持本地上传和从网络读取。

​ 我们这里实验本地读取。

​ 从图中1 和 2 的对比可以看出, inputs 中是放了一个 key-value 模式的参数。 Value 是一个对象,包含3个参数。key 从哪里来呢? 可以看出图中2 ,ke y 是用{}大括号圈起来的。

重点来了:打开工作流,在开始节点,新增变量。 p 。

完整的传参:
{
  "inputs": {"p": [{"transfer_method": "local_file","upload_file_id": "3954b2dd-f1f4-4ba4-8528-31b479f09537","type": "image"}]
  },
  "response_mode": "streaming",
  "user": "abbbacc-123123"
}

需要注意的是: 我们选择了本地上传。 从 files 的介绍中可以看出,我们需要一个upload_file_id。从哪里来呢?

就需要下面的上传图片接口:会返回一个id.

接口:上传图片

二、介绍完毕,开始实操:

2.1 创建api-key:

通过图中1,2,3 即可获取一个密钥。

2.2 配置上传图片的变量:

这里至关重要,不创建变量。在执行工作流的时候,没有key,无法传参。

2.3 调用上传图片接口:

1. 复制 curl ,导入到 apifox 中:
2.添加参数;
3. 执行;

记得添加端口号。默认的请求没有端口号

4. 保存返回的 id.

2.4 调用: 票务识别工作流

导入接口:

添加参数:
执行,结果如下:

2.5 在dify 中查看调用记录,现实成功:

日志分析:

三、总结:

在apifox 可以调用成功,就说明这个接口可以在我们的服务中使用了。可以对接到业务中了。

下一篇将介绍: agent+工作流,如何使用。

安装及其可能遇到的问题和解决方案,还涉及了设置镜像源、中文界面配置等细节。最后,文档介绍了如何通过Docker加载并访问Dify项目,完成知识库的搭建。 适合人群:适合有一定计算机基础,特别是对Windows环境下的软件安装和配置有一定经验的研发人员内容概要或个人开发者。 :本文档详细使用场景及目标介绍了在Windows环境下:①帮助部署Ollama用户在本地环境中、DeepSeek、快速部署和运行Dify以及个人大语言模型(知识库的步骤如DeepSeek),。Ollama满足个人开发者或作为轻量化的大语言模型引擎,小型团队的研究和简化了DeepSeek开发需求;②通过Dify项目,用户可以模型的安装与管理流程,提供了方便地管理和扩展跨平台支持和自己的知识库,提升工作效率;性能优化。安装Ollama时③适用于希望了解或使用大语言,用户可以通过官网下载并自定义模型和知识库安装路径,避免管理工具的个人占用C盘空间或企业用户。 。接着,文档阅读建议:此讲解了如何下载文档内容详尽和运行DeepSeek,涵盖从安装模型,强调了到配置的每一步骤,建议保持命令行窗口不关闭的重要性。读者在实际操作过程中对照文档逐步对于Dify部署,文档不仅进行,同时注意涵盖了源码下载根据自身环境调整、Docker Desktop相关参数和路径。对于初次接触的安装与配置,还解决了启动这些工具的用户,建议先熟悉失败的常见问题,并指导用户设置了基本概念和术语镜像源和,再动手实践。中文界面。最后,通过容器加载Dify并在浏览器中访问,完成了知识库的搭建。 适合人群:对大语言模型和知识库构建感兴趣的个人开发者、研究人员,尤其是有一定Windows操作系统基础和编程经验的用户。 使用场景及目标:①希望通过本地部署实现高效、便捷的大语言模型应用开发;②掌握从安装、配置到运行整个过程中涉及的技术细节,如环境变量设置、Docker容器管理等;③构建个人或小型团队的知识管理系统,提升信息管理和检索效率。 阅读建议:本教程适合按步骤逐步实践,建议读者在操作过程中仔细对照每一步骤,特别是在安装和配置环节,遇到问题时可以参照提供的解决方案进行排查。同时,结合实际需求调整安装路径和配置参数,确保系统资源合理利用。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值