the AI Workflow Types note at 2025

1. Workflow Types Comparison

在这个Agent 元年,没有最好的, 合适自己场景的才是最好的。

rule-based -> AI Workflow(non-agentic)->AI Workflow (agentic)

Agentic Workflow
AI Workflow (non-agentic)
Automated Workflow (rule-based, non-AI)
Make a plan
User query
Execute actions with tools
Reflect on results of actions
Response
Result ok?
Agent
Act on user query
User query
Response
AI model
Defined step 1
User query
...
Defined step n
Response

2. Tool Use Pattern

UI
Agentic workflow
Tool Use
User Query
Response
Results
Generate response
Web Search
Search
Vector Search
Block
Select Tools
Use Tools

3. Planning Pattern

UI
Agentic workflow
Planning
YES
NO
User Query
Response
Make a Plan
Plan
Task 1
Task 2
Task 3
Execute Task
Tools
Results
Is task complete?
Generate response

4. Reflection Pattern

UI
Agentic workflow
Reflection
No
User Query
Response
Final Response
Tools
Execute Task
Results
Generate response
Reflect
Response ok?
Reflected Response

5. Agentic RAG Workflow

Yes
No
Yes
No
User Query
Information available in context?
Formulate answer with info available
Search Tools
Determine user info needs with queries
Re-run search & processing based on determined needs
Information found?
Generate response
Response
### AI 工作流程设计与实现 #### 定义AI工作流的概念 工作流是一组有序的、可执行的任务序列[^2]。对于AI代理工作流而言,这表示由多个AI组件构成的一系列操作,旨在自动化并优化复杂的数据处理和决策制定过程。 #### 设计原则 在规划AI工作流时,需考虑几个核心要素: - **模块化**:将整个项目分解成独立的功能单元,便于维护和发展。 - **灵活性**:支持不同类型的输入源以及输出目标之间的转换。 - **扩展性**:允许轻松集成新的技术和方法论改进。 - **性能优化**:通过调整参数设置来提高效率和效果。 #### 实施步骤概述 虽然不使用具体步骤词汇描述,但在创建AI工作流的过程中涉及以下几个方面的工作: 定义清晰的目标和预期成果;选择合适的编程语言如Python进行开发[^3]; 利用先进的库和技术栈加速模型训练周期; 部署高效的基础设施支撑大规模数据分析需求; 持续监控运行状态并对潜在瓶颈做出响应。 ```python from pyspark import SparkContext, SQLContext sc = SparkContext('local') sql_context = SQLContext(sc) data = sql_context.read.format('com.databricks.spark.csv').options(header='true', inferschema='true').load('file_path') # 数据预处理... prepared_data = data.select(...) # 训练机器学习模型... model = some_algorithm.fit(prepared_data) predictions = model.transform(test_set) ``` 上述代码片段展示了如何基于Apache Spark框架读取CSV文件作为数据集,并对其进行初步准备以便后续分析或建模活动。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值