LlamaIndex 实现 Agent

RAG 是在数据层面为大模型提供更多、更新的外部知识,而 Agent (智能体),为大模型扩展了推理业务的能力。数据是静态的,数据周期可能是天、小时甚至到秒,通过 RAG 实现时,需要调用对应系统的 API 去实时获取相关数据并组合发给 LLM,如果是一系列动作完成一个需求,前一个动作的输出是下一个动作的输入,使用 RAG 处理就相当复杂,也没有利用到大模型强大的推理能力。

Agent 的推出很好的解决了模型调用工具能力(Function Call),工具能力最早始于 ChatGPT,例如,我们想了解当前北京的气温,需要实时数据,有了工具能力就可以调用 API 获取是实时数据。本文将介绍如果通过 LlamaIndex 实现 Agent。

ReActAgent

LlamaIndex 实现 Agent 需要导入 ReActAgent 和 Function Tool,

from llama_index.core.agent import ReActAgent
from llama_index.core.tools import FunctionTool

ReActAgent 是什么?

ReActAgent 通过结合推理(Reasoning)和行动(Acting)来创建动态的 LLM Agent 的框架。该方法允许 LLM 模型通过在复杂环境中交替进行推理步骤和行动步骤来更有效地执行任务。ReActAgent 将推理和动作形成了闭环,Agent 可以自己完成给定的任务。

一个典型的 ReActAgent 遵循以下循环:

  1. 初始推理:代理首先进行推理步骤,以理解任务、收集相关信息并决定下一步行为。
  2. 行动:代理基于其推理采取行动——例如查询API、检索数据或执行命令。
  3. 观察:代理观察行动的结果并收集任何新的信息。
  4. 优化推理:利用新信息,代理再次进行推理,更新其理解、计划或假设。
  5. 重复:代理重复该循环,在推理和行动之间交替,直到达到满意
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值