AI Agent工作流的5种基础模式及其通用实现(PydanticAI)

Anthropic公司最近的一篇《Build effective agents》引起了广泛关注。不过简单的翻译从来不是我们的风格,经过几天的酝酿,今天来为大家解析这篇文章,并尝试用PydanticAI来完美实现文章中的设计模式,完成后你将对Agent工作流与来自大名鼎鼎Pydantic团队的新工具PydanticAI都会有全新的认识。

本篇目录:

  1. 区分Agent系统、Workflows、Agents

  2. Workflows 的5种基础模式

  3. 实现Workflows模式之链接模式

01 区分Agent系统、Workflows、Agents

通常,在提到的Agent(智能体)的时候你会想到:能够感知环境,自主规划,并使用工具来完成多步骤任务的AI应用。在这里,自主的多步任务规划是智能体的标志性特征,也是Agent区分类似RAG应用的核心能力。

不幸的是,即使当前LLM能力已经非常惊艳,这种自主的多步任务准确率在很多测试中仅能达到接近人类的50%。这种“黑盒”Agent的不确定性,在很多复杂场景特别是企业应用中是致命的。也因此出现了另一种形式的应用:**遵循预定义工作流程但仍然以LLM调用为核心来完成多步骤任务的系统。**一般我们也称其为Agent。

回忆下LangChain为什么会推出LangGraph,LlamaIndex会推出Workflows

Anthropic对这两种类型的Agent进行了清晰的划分与定义:

  • Agent Systems(Agent系统):不管是完全自主,还是预定义工作流的Agent都归为Agent系统。

  • Workflows(工作流):使用预定义流程编排LLM与工具来完成任务。

  • Agents(智能体):由LLM自主规划其任务步骤并完成任务的系统。核心特点是能够观察上个步骤的执行结果,来推理后续步骤,直到任务完成。因此,所有的Agents具有统一的工作模式:

总结:Workflows与Agents的核心区别在于其任务步骤是否由LLM自主规划。

理解了这一点,也就能得出什么时候用workflows,什么时候用Agents:

  • 足够简单的任务既不用Workflows,也不用Agents。

    比如:让LLM从网络搜索最新天气

  • 需要极高的可预测性与可靠性的复杂流程任务使用Workflows。

    **比如:**一个带有自我反省机制的并行编程Agent应用

  • 需要一定灵活性,或无法预测任务步骤时,可考虑使用Agents。

    比如:一个动态规划访问路径的WebUI Agent。

02 Workflows的5种基础模式

Anthropic文章的另一个关键部分是对构建工作流的模式进行了清晰的总结,详细描述了工作流的5种基础模式。在这5种基础模式上,结合必要的控制流程,可以组装更复杂的工作流。

需要注意的是,这5种基础模式的构建单元是增强型LLM(调用):

总结: 增强型LLM就是带有工具调用、记忆与检索能力的LLM。你甚至可以理解成缺乏规划能力但会使用工具的“还不够智能”的Agent。

下面介绍五种基础工作流模式:

1. 链接模式

也可以理解为顺序模式:多个LLM调用按输入输出串接起来执行。

【用例】 搜索一篇文章,然后翻译成某种语言,最后发送邮件。

2. 路由模式

一个LLM调用作为路由器,将任务转发到后续不同的LLM调用。

【用例】 将客户服务的请求按类型转给不同的后续LLM处理。

3. 并行模式

多个LLM调用并行处理,最后对处理结果进行汇聚后输出。

【用例】 对一段代码从语法、逻辑、规范不同的角度做审查。

4. 编排者-工作者模式

类似于多智能体的Supervisor模式:一个管理LLM负责编排与分解出子任务,多个工作LLM负责子任务的完成,直到任务完成。

【用例】 从不确定的多个数据源搜集信息,并形成综合报告。

5. 评估器-优化器模式

一个LLM负责处理任务,另一个LLM则负责评估并反馈。经过多次迭代后,直到任务完成。

【用例】 翻译任务中一个LLM负责输出,一个LLM负责提出改进意见。

03 实现Workflows模式之链接模式

在实现Agent系统的方法上,Anthropic建议:

尽可能的直接使用LLM API,而非引入框架,因为框架会带来复杂性,并使得调试困难。

不过在这点上我们还是认为大部分时候引入框架的收益要大于代价,原因是:

  • 简化开发工作量。应用越复杂,收益越大

  • 通过抽象层灵活适应变化,保留更好的扩展性

  • 调试复杂性也可以借助成熟的工程化平台

  • 主流框架都开源,有丰富的社区支持

所以为了更具有通用性和简洁性,我们这里用轻量级的框架PydanticAI来实现Workflows的5种基础模式。

首先来实现链接(顺序)模式,这里的模拟用例是:

从网络搜索要求的内容,翻译成英文后,发送电子邮件。

实现要点是:

  • 使用PydanticAI的Agent来模拟“增强型LLM“调用

  • 为了更好演示“增强型LLM”,使用了工具

  • 每个步骤可以配置不同的提示、模型、工具、结构化输出类型

下面直接给出代码,参考注释即可看懂:

import asyncio,pprint  
from typing import List  
  
from pydantic import BaseModel  
from pydantic_ai import Agent,Tool  
from pydantic_ai.models.openai import OpenAIModel  
from langchain_community.tools.tavily_search import TavilySearchResults  
  
#tool:搜索网络信息  
def tool_search(query: str) -> str:  
    """用于搜索网络信息"""  
  
    search = TavilySearchResults(max_results=1)  
    results = search.invoke(query)  
    return "\n".join([r["content"] for r in results])  
  
#tool:发送邮件(模拟)  
def tool_sendmail(subject: str, body: str,recipient: str = None) -> str:  
    """用于发送邮件"""  
      
    print(f"开始发送邮件...")  
    return f"Sent email to {recipient} with subject '{subject}' and body '{body}'"  
  
#邮件模型,演示PydanticAI的自动类型转换  
class Mail(BaseModel):  
    subject: str  
    recipient: str  
    body: str  
  
#链式调用  
async def chain(input: str, steps: List[dict]) -> str:  
    """按顺序链接多个LLM调用,在步骤之间传递结果。"""  
  
    result = input  
    for i, step in enumerate(steps, 1):  
  
        #读取步骤配置  
        prompt = step["prompt"]  
        tools = [Tool(tool) for tool in step["tools"]]  
        model_config = step.get("model_config", {})  
        model = OpenAIModel(**model_config)  
        result_type = step.get("result_type", str)  
  
        #创建LLM调用  
        agent = Agent(model, system_prompt=prompt, tools=tools, result_type=result_type)  
  
        #运行LLM调用  
        response = await agent.run(f"输入:\n{result}")  
        result = response.data  
        print(f"步骤 {i}: {result}\n\n")  
    return result  
  
#链处理步骤(每个步骤可以配置提示、工具、模型、返回类型)  
data_processing_steps = [  
        {  
            "prompt": "从网络搜索与输入问题相关的信息",  
            "tools": [tool_search],  
            "model_config": {"model_name": "gpt-4o-mini"},  
            "result_type": str  
        },  
        {  
            "prompt": "将上述中文内容翻译成英文",  
            "tools": [],  
            "model_config": {"model_name": "gpt-4o-mini"},  
            "result_type": str  
        },  
        {  
            "prompt": "将内容发送邮件到test@example.com",  
            "tools": [tool_sendmail],  
            "model_config": {"model_name": "gpt-4o-mini"},  
            "result_type": Mail  
        }  
    ]

用如下代码来测试:

initial_input = "明天北京的天气"  
  
async def main():  
    result = await chain(initial_input, data_processing_steps)  
      
    print('\n')  
    pprint.pprint(result)  
  
if __name__ == "__main__":  
    asyncio.run(main())

获得输出如下:

可以看到,程序按照设定的工作流步骤顺利完成输入任务,其中每个步骤都是一个“增强型LLM”的调用。

零基础如何学习AI大模型

领取方式在文末

为什么要学习大模型?

学习大模型课程的重要性在于它能够极大地促进个人在人工智能领域的专业发展。大模型技术,如自然语言处理和图像识别,正在推动着人工智能的新发展阶段。通过学习大模型课程,可以掌握设计和实现基于大模型的应用系统所需的基本原理和技术,从而提升自己在数据处理、分析和决策制定方面的能力。此外,大模型技术在多个行业中的应用日益增加,掌握这一技术将有助于提高就业竞争力,并为未来的创新创业提供坚实的基础。

大模型典型应用场景

AI+教育:智能教学助手和自动评分系统使个性化教育成为可能。通过AI分析学生的学习数据,提供量身定制的学习方案,提高学习效果。
AI+医疗:智能诊断系统和个性化医疗方案让医疗服务更加精准高效。AI可以分析医学影像,辅助医生进行早期诊断,同时根据患者数据制定个性化治疗方案。
AI+金融:智能投顾和风险管理系统帮助投资者做出更明智的决策,并实时监控金融市场,识别潜在风险。
AI+制造:智能制造和自动化工厂提高了生产效率和质量。通过AI技术,工厂可以实现设备预测性维护,减少停机时间。

这些案例表明,学习大模型课程不仅能够提升个人技能,还能为企业带来实际效益,推动行业创新发展。

学习资料领取

如果你对大模型感兴趣,可以看看我整合并且整理成了一份AI大模型资料包,需要的小伙伴文末免费领取哦,无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

部分资料展示

一、 AI大模型学习路线图

整个学习分为7个阶段
在这里插入图片描述
请添加图片描述

二、AI大模型实战案例

涵盖AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,皆可用。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

三、视频和书籍PDF合集

从入门到进阶这里都有,跟着老师学习事半功倍。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

四、LLM面试题

在这里插入图片描述
在这里插入图片描述

五、AI产品经理面试题

在这里插入图片描述

😝朋友们如果有需要的话,可以V扫描下方二维码联系领取~
在这里插入图片描述

👉[优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]👈

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值