Agent Prompt 调优太难?这套“设计-测评”闭环方法论,让你效率翻倍,建议收藏!!

前言

最近在做导购Agent,工程侧已经开发完毕,但调Prompt、做测评,每一个都令我痛苦万分,因为到处都是“翻车现场”:要么“思维太发散”,绕着用户的问题走;要么“工具乱点”,命中一个tool就一条道走到黑;要么“跑不完”,说着说着卡住了,再没了下文…

因此搜了一些Agent相关的论文、文章、视频,企图从技术底层抱抱佛脚…

正巧看到了Anthropic 8月1日在YouTube上发布了一个视频《Prompting for Agents | Code w/ Claude》,详细讲了如何写好Agent 的 Prompt、如何测评。

图片

正好是我现在非常需要的内容,因此今天的文章主要分享下该视频的观点。

这支视频讲了啥(速览版)

  • Agent 的正确定义:不是“更聪明的聊天机器人”,而是“在工具回路中自主推进任务的系统”:给定目标→选择/调用工具→观察→决定下一步→直到达成停止条件。
  • 什么时候该用 Agent:适合复杂、不确定路径、且高价值的任务;能被固定流程吃掉的,优先 Workflow。这个判断框架与 Anthropic 的工程文《Building effective agents》完全一致。
  • 如何写好提示词:要写清目标与成功标准、工具选择原则、思考—行动—反思节奏、启发式(预算/不可逆动作/停机条件)、输出契约等;否则只是在给模型加戏。
  • 测评从简单、小批量开始:先把最小可用工具集跑通,再逐步加复杂度。

什么是Agent?

Agent = 在一个循环回路中使用工具的模型。给定目标后,它会自主地:选择/调用合适工具 → 观察反馈 → 更新决策 → 继续推进,直到满足停止条件。它所依赖的“环境”包括:运行环境、可用工具清单、提示词(任务与边界)。

Agent的组成

  • 目标与停止条件。
  • 工具回路(Action–Observation):每一步都基于工具返回更新计划。
  • 环境三件套:运行环境 / 工具 / 系统提示(明确“Agent要完成什么”)。
  • “越简单越好”:提示与工具说明要清晰克制,别给花里胡哨的语言描述。

图片

什么是“提示词工程(prompt engineering)”?

Anthropic AI团队成员Hannah认为“提示词工程是一种系统性改进用于大模型应用的提示词的方法——通过测试、评估、分析与对提示词及工具的优化,用自然语言进行编程!

一个好的提示词工程是所需能力包含:

  • 清晰、无歧义、精确的写作;
  • 以科学思维制作评测,不断测试;
  • 产品化思维:对你的产品来说,理想的模型行为是什么;
  • 理解大模型的倾向与局限;
  • 汇总并分析失败模式,并思考修复方法;
  • 思考边界场景,让提示在广泛输入下都稳健。

图片

写提示词 = 写操作流程

Anthropic 的核心观点:Prompt 不是文案,是规则和流程。它要解决的不是“说得漂亮”,而是如何让 Agent 在真实环境里把事办完。这份规程至少包含五部分:

  • 角色与高层目标(1–2 句话说清你是谁、为啥而来)
  • 动态上下文(检索到的资料、用户偏好、会话历史)
  • 详细任务指令(做什么、不做什么、成败标准)
  • 示例 n-shot(可选,用于边界提醒,不是“写死流程”)
  • 重复关键指令(长提示里尤其重要,防遗忘)

图片

一个示例:

你是一名 AI 旅行顾问(AI travel agent),任务是根据用户输入创建一份个性化旅行行程。你的目标是:产出一份有吸引力、结构清晰、切实可行的行程,既符合用户偏好,也匹配指定的目的地出行天数

你将获得以下信息:目的地、天数、用户偏好。

在制定行程时,请遵循以下指南:

  • 调研目的地及其热门景点,并结合用户偏好。
  • 每一天规划活动,确保观光—放松—本地体验之间的良好平衡。
  • 给出用餐建议,考虑当地美食;如用户提到饮食偏好,请一并考虑。
  • 推荐住宿选项,需与用户偏好与预算相匹配。
  • 提供实用信息,如交通方式与预估花费
  • 注意可用天数,制定现实可行的时间安排。

请按以下格式呈现你的行程:

  • 目的地的简要介绍开头。
  • 提供按天拆分的活动、用餐与住宿安排。
  • 额外提示/出行建议结尾。

现在,请基于提供的目的地天数用户偏好,创建一份个性化旅行行程。你的建议应当既有创意又充分详尽,确保行程既体现用户兴趣,也凸显目的地的独特之处。

什么时候该用 Agent?

不是所有场景都需要 Agent(很多时候反而不该用 Agent),它最适合复杂且高价值的任务。人可以按“固定步骤”一步步做完的工作,用工作流(workflow)可能更合适、更省资源。

判断方法: 1)任务是否复杂到只知道终点,不清楚具体怎么走、需要哪些信息与工具; 2)完成后是否“高价值”?低价值流程别浪费 Agent 的资源; 3)工具与数据是否可用?若给不了足够工具/信息就让它办成事,那就先缩小范围; 4)容错与纠错成本:难以发现/纠正的错误,不适合让 Agent 全自动去跑。

图片

2个适合Agent的例子:

写代码:你知道目标是“把设计文档落实成 PR”,但并不确定具体路径、要如何迭代修改——高价值、强杠杆,适合 Agent。

数据分析:你清楚希望得到哪些洞见/可视化,但数据形态、清洗过程并不确定——这类探索式任务非常适配 Agent。

图片

如何写好Agent的Prompt?

原则一:像 Agent 那样思考

模拟“Agent 身处的环境”——它能看到什么工具、工具会返回什么;甚至可以在脑内模拟一遍:如果你站在 Agent 的角度,拿到这份工具说明,你会不会困惑?人类都看不懂的工作流,模型更不可能做对。

原则二:赋予“合理的启发式(Heuristics)”

提示工程不是“写字”,而是决定模型该拥有哪些概念与行为准则。例如:我们给 Agent 一个重要概念——“不可逆性(irreversibility)”:避免做不可逆、可能伤害用户或环境的动作。再比如,给“检索”Agent 设停止条件与预算:找到答案就停;简单问题<5次工具调用,复杂问题可到10或50;不要为“完美来源”无限搜索。这类“合理启发式”都要在提示里清晰明确地写出来。

原则三:明确“何时用哪种工具”

前沿模型一次能挂非常多的工具,但模型并不知道在你的组织里哪个工具对哪个任务更关键。必须在提示中写出选择原则:比如公司信息优先搜 Slack、代码问题查 GitHub/Sentry、业务报表走 DataDog……别只给一串简短描述就指望它自己悟透。

原则四:引导“思考—行动”的过程

不要只“打开思考”,而要具体引导:

  • 让它先规划:这个查询复杂度如何?预期用几次工具?优先查哪些来源?如何判定成功?
  • 在工具调用之间穿插反思:网页结果不必然正确,需要质量评估/二次求证/必要的免责声明。
  • 提前写上副作用与停止条件:比如“若找不到完美来源,最多 N 次搜索后停止”。

原则五:管理上下文窗口

Agent 容易撞到上下文上限。做法包括:

  • 压缩:临近窗口上限时自动把上下文浓缩为高密度摘要,交给新的会话继续跑。
  • 外部记忆:把关键过程/状态写入外部文件,需要时再读取。
  • 子Agent:把搜索等“吃上下文”的工作分给子代理,压缩后再交给主代理整合、撰写报告。

原则六:让 Claude 发挥所长 + 工具要“少而精”

先用一套最小可用的提示和工具跑起来,再逐步加复杂度。避免给一堆名字相似/职责重叠的工具(例如 6 个“搜索”工具查不同库),会让模型混淆——能合并就合并,并把用途说清清楚楚。

图片

测评怎么做:从“小而真”开始

效果量越大,样本越可小:起步不需要上百条,只要几条真实用例,每次改 Prompt/工具文档都能看到显著变化

用真实任务评测:尽量让评测题就像用户会问的那种,且能用现有工具找到标准答案

LLM 评审 + 量表(rubric) 很有用:只要规则清楚,模型能胜任“打分官”。

人评无法被完全替代:每周都要有人“猛怼 + 手感校验 + 真实用户试用”,人类最能摸到“硌手的边角”。

图片

评测都评什么:结果 & 过程

1)结果向(Outcome)

  • 答案正确性:用 LLM-judge 判定回答是否正确、是否覆盖关键点。
  • 最终状态达成:看 Agent 是否到达正确的最终状态(例如:外部系统里确实发生了期望变更)。

2)过程向(Process)

  • 工具使用正确性:评估是否选对工具参数,以及遇错能否恢复(图示中“从参数错误恢复”的示例)。
  • 其他常见过程量化:步骤数/时延、无效调用、异常与回退等——这些直接从对话与调用日志即可统计。

LLM-as-judge 的最小做法:给评审模型一份量表结构化输出格式,它就能稳定工作。

示例量表要点

  • 是否满足硬性约束(0/1/2)
  • 证据质量与可追溯性(0/1/2)
  • 取舍与理由是否清晰(0/1/2)
  • 是否给出风险/不确定性(0/1/2)
  • 输出契约是否遵守(0/1/2)
  • 合计 0–10 分,并给一句话短评

测评起步流程

  • 10–20 条真实任务样例(最好能用现有工具找到明确答案/标准)。
  • 为每条样例写明期望结果/最终状态(方便做 τ-bench)。
  • 准备一份rubric,用 LLM-as-judge 打分;必要处穿插人评抽检。
  • 观察结果 + 过程两套指标的变化;对失败样例做回放,定位是选择错工具、参数错误、步骤冗长还是停止条件/启发式不当
  • 小改就复测:每次只调整一个维度(如 Prompt 的启发式或某个工具文档),再跑同一小集合对比效果。

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值