Agent 通常指的是一类具备高度自主性的智能实体,它们能够巧妙地在特定环境里自主感知信息,运用内置的智能算法做出理性决策,进而精准无误地执行相应动作。相较于 RAG(检索增强生成)技术,Agent 可解决诸多难题。RAG 虽擅于知识检索整合,但面对动态变化场景稍显乏力。Agent 则不同,它能实时感知环境动态,主动调整策略。比如在供应链管理中,遇到物流堵塞,Agent 可迅速重新规划配送路径,优化资源分配,保障供应链畅通无阻,而 RAG 很难做到如此灵活应变,全方位提升效率与适应性。
Profile
Prompt engineering,例如 CoT(Chain of Thought,思维链)、ICL(In-Context Learning,上下文学习)等,已被证实是一种在不微调的情况下增强大语言模型(LLM)能力的有效方法。由于 LLM 的本质是基于 token 预测,所以 Prompt engineering 相当于给 LLM 提供更多的前置 token,如此一来便更有可能预测出 “正确” 的 token(这纯属个人理解,在预训练阶段模型会接触大量文本,下一个 token 的候选者可能成千上万。此时若给予更多前置 token,依据条件概率,就更有机会生成所谓的正确 token)。
简介模块在此处的作用是定义代理的角色。代理(Agent)通常通过承担特定角色来执行任务,以查询天气的任务为例,一般我们会将 Agent 设定为天气预报员或检索人员,赋予其一定的天气相关背景知识以及检索天气的工具等。这部分信息通常涵盖基本信息(如年龄、性别和职业)、心理信息(反映代理的个性)以及社交信息(在多代理场景下会涉及代理之间的关系)等。
简单来讲,简介模块可理解为添加前置 token,助力 LLM 锁定后续 token 的生成范围,能有效激发 LLM 的 “潜意识”。需要注意的是,这并非仅 Agent 才有的模块,只要与 LLM 交互,就可能涉及这部分内容。
常用的简介生成策略如下:
- 手工制作方法:Agent 的简介由人工指定,这也是最为常用的方式,即人工撰写系统提示。通过设定 Agent 角色,让 LLM 能够更好地生成期望结果,甚至可以设定 LLM 生成内容的格式等。这种方法能够精准把控一些具体细节,但不可避免地需要投入大量人工精力。
- LLM 生成方法:Agent 的简介由 LLM 自动生成。有一种做法是指明档案生成规则,阐明目标群体中 Agent 简介的组成与属性,然后选择性地提供一些样本示例(f