Dify Workflow 因其用户友好的设置和强大的功能而广受欢迎。然而,之前的版本以串行方式执行各个步骤,等待每个节点完成后再转到下一个节点。虽提供清晰结构,但这会降低复杂任务的处理速度,增加延迟和响应时间。
Dify v0.8.0 通过引入并行处理功能解决了这些限制。Workflow 现在可以并发执行多个分支,从而能够同时处理不同的任务。这显著提高了执行效率,使 LLM 应用程序能够更快、更灵活地处理复杂的工作负载。
创建并行分支
要在工作流中定义并行分支:
- 将鼠标悬停在节点上
- 点击出现的 + 图标
- 添加不同的节点类型
各个分支将并行执行并合并其输出。请参阅文档以获取详细说明。

工作流包含多种并行场景。可尝试使用这些场景来加快流程。如已在早期版本构建工作流,请考虑用并行模式重构,提高性能。
1、 简单并行
基本场景,可从一个固定节点(如起始节点)创建多个并行分支。可同时处理类似的子任务,如翻译或模型比较。
模型比较工作流程中的简单并行性:
https://framerusercontent.com/assets/CSv597nulCSy0uNXY95cOnpeY.mp4
2 、嵌套并行
允许在工作流中实现多层级并行结构。从初始节点开始,工作流分支出多个并行路径,每个路径包含各自的并行流程。“科学写作助手”示例展示了两个嵌套层级:

- 第一级(框 1): 从问题分类器中,出现了两个主要分支: a.概念解释(框 1) b. 处理偏离主题的对话(“拒绝闲聊”分支)
概念解释(concept explanation)分支(框1)包括:
- 隐喻和类比分支可增强概念理解
- 主题提取 | 第二级嵌套(框 2)用于详细的概念分析和内容生成
- 第二级(框 2): 主题提取分支执行两个并行任务: a. 提取主题并搜索(提取主题 -> Serper)获取背景信息 b.提取主题并生成学习计划(学习计划->参数提取器->TavilySearch)
这种多层嵌套并行结构非常适合诸如深入概念分析和科学传播内容创作等复杂、多阶段的任务。它能够同时处理不同的概念层面,包括基本解释、类比、背景研究和学习计划,从而提高处理效率和输出质量。
3、 迭代并行
涉及循环结构内的并行处理。“股票新闻情绪分析”演示这种方法:

- 设置: 搜索并提取特定股票的多个新闻 URL。
- 迭代处理: 对于每个 URL,并行执行: a.内容检索:使用 JinaReader 抓取并解析网页内容 b. 观点提取:使用参数提取器识别乐观和悲观的观点 c. 观点总结:使用两个独立的 LLM 模型同时总结乐观和悲观的观点
- 合并结果: 将所有发现合并到一张表中。
该方法能够高效处理海量新闻文章,从多个角度分析情绪,帮助投资者做出明智的决策。迭代中的并行处理能够加速具有相似数据结构的任务,从而节省时间并提升性能。
4 、条件并行
条件分支并行根据条件运行不同的并行任务分支。“面试准备助手”示例展示了此设置:

- 主要条件(IF/ELSE 节点): 根据 dialog_count 拆分流程: a. 第一次对话:确认面试职位和公司 b. 后续对话:进入更深层次的处理
- 次要条件(IF/ELSE 2 节点): 在后续对话中,根据现有的公司信息和面试问题进行分支: a. 缺少公司信息:运行并行任务来搜索公司、抓取网页、汇总公司信息 b. 缺少面试问题:并行生成多个问题
- 并行任务执行: 对于问题生成,多个 LLM 节点同时启动,每个节点创建不同的问题
这种 IF/ELSE 结构允许 Workflow 根据当前状态和需求灵活地运行不同的并行任务。(问题分类器节点可以实现类似的功能。)这在保持有序的同时提高了效率。它适用于需要根据各种条件同时执行复杂任务的情况,例如本面试准备流程。
5、 受益于工作流并行
这四种并行方法(简单、嵌套、迭代和条件)提升了 Dify Workflow 的性能。它们支持多模型协作,简化复杂任务,并动态调整执行路径。这些升级提升了效率,拓宽了应用范围,更好地处理棘手的工作情况。您可以在探索页面的配套模板中快速试用这些新功能。 Dify将继续增强 Workflow,提供更强大、更灵活的自动化解决方案。令人期待!
6、 如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


418

被折叠的 条评论
为什么被折叠?



