ICML25|不用手动调试,自动化agent问责制横空出世

img

一句话概括:你还在手动翻日志给AI查bug?这篇论文已经开始训练AI当“产品经理”,让它自己复盘会议纪要,找出是谁在哪一步把需求带跑偏了。

*第一阶段:识别核心概念*

*论文的Motivation分析*

想象一下,你是一个大型交响乐团的指挥。乐团在一次重要演出中,突然奏出了不和谐的音符,导致整个乐章听起来一团糟。作为指挥,你的任务是找出问题所在:是哪个乐手(Which Agent)在哪个小节(When)演奏错了?

目前,在大型语言模型(LLM)驱动的多智能体(Multi-Agent)系统开发中,研究者们就扮演着这样的“指挥”角色。这些系统就像一个由多个“智能体”(Agent)组成的乐团,每个智能体都有自己的专长(比如一个负责编码,一个负责上网搜索,一个负责整合信息),它们协同工作来完成一个复杂的任务。

然而,当任务失败时,开发者面临着一个巨大的挑战:故障定位(Failure Attribution)。他们必须手动翻阅冗长、复杂的对话日志,就像指挥需要逐一检查每个乐手的乐谱和演奏录音一样。这个过程:

  • 耗时耗力:分析成百上千行的日志,对开发者来说是巨大的负担。
  • 需要专业知识:只有深入理解系统架构和任务逻辑的专家才能准确判断问题根源。
  • 难以扩展:随着智能体系统变得越来越复杂,成员越来越多,手动调试的难度呈指数级增长。

这篇论文的核心动机就是解决这个痛点。作者认为,既然LLM本身具有强大的推理和理解能力,我们为什么不训练或引导另一个LLM来自动扮演“故障分析师”的角色呢?因此,他们提出了一个全新的研究方向:LLM多智能体系统的自动化故障归因,旨在让机器自动、高效地找出“哪个智能体”在“哪个步骤”犯了“决定性错误”。

*论文主要贡献点分析*
*列出论文声称的主要创新点*
  • 开创并定义了新研究领域:首次正式提出并系统地阐述了“自动化故障归因”(Automated Failure Attribution)这一研究问题,为LLM智能体系统的调试和优化提供了一个全新的、自动化的视角。
  • 构建了首个专用基准数据集(Who&When):为了支持该领域的研究,作者创建了一个名为“Who&When”的数据集。这不仅仅是数据,更是一个高质量的基准(Benchmark)。它包含了127个不同多智能体系统在执行真实任务时的失败日志,并对每一条失败日志都进行了精细的人工标注,明确指出了“犯错的智能体”、“关键错误步骤”以及“错误原因”。
  • 提出了三种基线归因方法:作者设计并评估了三种简单而直观的自动化故障归因方法,作为未来研究的起点。
  • 提供了深入的实验分析和洞见:通过大量实验,论文揭示了自动化故障归因任务的内在复杂性,并得出了一些非常重要的结论。
*找出支撑这些创新的关键技术或方法*
  • “LLM即评委”(LLM-as-a-Judge)范式:这是整个方法的核心思想。论文利用一个独立的LLM作为“评委”或“分析师”,来读取和分析另一个多智能体系统的运行日志。

  • 三种归因策略

    • All-at-Once(全局一次性分析):将完整的失败日志一次性提供给评委LLM,让它通读全文后直接给出结论。
    • Step-by-Step(逐一增量分析):按时间顺序,一步一步地向评委LLM展示日志。每展示一步,就问它“这一步是不是出错了?”。一旦发现错误,就立即停止。
    • Binary Search(二分查找分析):一种折中方案。评委LLM首先判断错误是在日志的前半部分还是后半部分,然后不断缩小范围,直到定位到具体的错误步骤。
  • 精细化的人工标注流程:为了构建高质量的Who&When数据集,作者设计了多轮、多专家的交叉验证标注流程,确保了标注结果的准确性和一致性,这为后续研究提供了可靠的“黄金标准”。

*论文的显著性结果*
  • 揭示了“全局”与“局部”的根本性权衡:这是论文最有价值的发现之一。实验表明:

    • All-at-Once方法在**判断哪个智能体出错(Who)**方面表现最好,因为它能看到全局信息,理解每个智能体的整体行为模式。
    • Step-by-Step方法在**定位具体错误步骤(When)**方面表现最好,因为它能聚焦于每一步的细节,避免被冗长的上下文信息干扰。这印证了LLM在长文本中“大海捞针”(Needle-in-a-Haystack)的难题。
  • 证明了方法的统计学价值:尽管在单个案例上,这些方法的准确率还有待提高(最高约50-60%),但从统计层面看,它们能准确地识别出系统中“最常犯错”的智能体。这对于开发者来说极具价值,可以指导他们优先改进系统的薄弱环节。

  • 强调了任务的挑战性:即使是使用最先进的推理模型(如OpenAI o1),也无法轻松解决这个问题。这说明自动化故障归因是一个有深度、有挑战性的研究方向,仅仅依靠更强的模型是不够的,还需要更巧妙的方法论。

*理解难点识别*
*分析哪些概念/方法是理解论文的关键*

核心在于理解**“决定性错误”(Decisive Error)**的定义,以及为找到它而设计的三种不同策略(All-at-Once, Step-by-Step, Binary Search)。

*找出这些概念中最具挑战性的部分*

最具挑战性的概念是**“决定性错误”。在一个失败的任务中,智能体可能犯下多个小错误或走了些弯路,但并非所有错误都是致命的。“决定性错误”指的是那个最关键的、一旦修正了就能让整个任务从“失败”逆转为“成功”的最早**的那个错误。理解这个概念的微妙之处,是理解整个任务目标的关键。

*确定需要重点解释的核心概念*

我们将重点解释**“决定性错误”的正式定义以及三种归因方法(All-at-Once, Step-by-Step, Binary Search)**的工作原理和它们之间的权衡关系。这三者共同构成了论文方法论的主体。

*概念依赖关系*
*梳理核心概念之间的关系*
  1. 首先,要理解什么是**“决定性错误”**,这是我们要寻找的目标。
  2. 然后,三种归因方法是为实现这个目标而设计的不同**“搜索策略”**。
  3. 最后,两种主要的评估指标——“智能体层面准确率”(Agent-Level Accuracy)“步骤层面准确率”(Step-Level Accuracy)——是用来衡量这些策略在多大程度上成功实现了目标。
*确定解释的最佳切入点*

因此,最佳的解释切入点是从“决定性错误”的定义出发,然后通过一个生动的比喻来阐释三种搜索策略是如何工作的。

*第二阶段:深入解释核心概念*

*设计生活化比喻*
*选择一个日常场景或者容易理解的活动*

想象一个场景:三位顶级厨师——策划师小张采购员小李主厨小王——组成一个团队,参加一场要求制作“法式红酒炖牛肉”的厨神大赛。然而,最终的成品味道不对,评委判定任务失败

*用这个比喻来展示核心机制是如何工作的*

赛后,大赛组织方(开发者)需要复盘,找出导致失败的根本原因。他们聘请了一位经验丰富的美食评论家(评委LLM),让他通过分析团队内部的**工作聊天记录(Failure Log)**来找出问题所在。

这份聊天记录详细记载了从开始到结束的每一步:

  • 第1步 (小张): “我查了菜谱,我们需要牛腩、红酒、胡萝卜……”
  • 第2步 (小李): “好的,我去市场采购。牛腩买回来了。”
  • 第3步 (小王): “开始处理食材,我把牛腩切块了。”
  • 第4-10步
  • 第11步 (小李): “红酒买回来了,用的是一瓶82年的拉菲。”
  • 第12步 (小王): “很好,我把红酒倒进去开始炖煮。”
  • 第20步 (小王): “成品出锅。” -> 失败

美食评论家的任务就是找出:

  1. 谁是“背锅侠”?(Failure-Responsible Agent)
  2. 哪一步是“致命操作”?(Decisive Error Step)
*建立比喻与实际技术的对应关系*
比喻中的元素实际技术概念解释
厨师团队 (小张, 小李, 小王)LLM多智能体系统 (Multi-Agent System)一个由多个专业角色组成的、为实现共同目标而协作的团队。
制作“红酒炖牛肉”用户给定的任务/查询 (Query)系统需要解决的顶层问题。
最终菜品失败任务失败 (Task Failure)系统没有成功完成任务,输出结果错误。
美食评论家作为评委的LLM (Judge LLM)用于分析和判断故障原因的独立语言模型。
工作聊天记录失败日志 (Failure Log, )按时间顺序记录的、每个智能体的所有行动和交互历史。
聊天记录中的每一步日志中的一个步骤 (step)智能体在某个时间点执行的一个具体动作。
“致命操作”决定性错误 (Decisive Error, )导致任务失败的、最关键的、最早发生的那个错误。
“背锅侠”故障责任智能体 (Failure-Responsible Agent,执行了“致命操作”的那个智能体。
*深入技术细节*
*从比喻过渡到实际的技术原理*

现在,我们把比喻和论文中的技术细节联系起来。美食评论家(评委LLM)如何确定哪个是“致命操作”呢?这就要引入论文中对“决定性错误”的数学定义。

*定义“决定性错误”*

假设在聊天记录中,采购员小李在第11步犯了个错:他错把一瓶昂贵的、用于品鉴的干红(82年拉菲)当成了廉价的、用于烹饪的料酒。这可能导致最终的菜品单宁过重,味道苦涩。同时,主厨小王在第3步切牛腩时,切得稍微有点不均匀,这也是个小错误。

哪个才是决定性错误

我们需要做一个思想实验:如果时间倒流,我们只修正一个错误,看任务能否成功。

  • 思想实验1: 修正小王切肉不均的错误。结果呢?菜的味道可能还是苦涩的,因为错误的红酒是主要问题。任务依然失败
  • 思想实验2: 修正小李买错红酒的错误(让他买回正确的烹饪红酒)。结果呢?即使肉切得不完美,但整体味道对了,任务成功了!

因此,小李在第11步买错红酒,就是那个决定性错误

*解释相关的数学公式或算法*
  • 原始数学形式 (公式 4 & 5):

    • 一个错误 是否是决定性的,由指示器 判断:
*   最终要找的目标 $(i*, t*)$ 是所有决定性错误中,发生时间最早的那个:
  • 符号替换版本:

    • 是 (值为1),如果 原始任务失败了 并且 (假如修正了这个操作后)新任务成功了
    • 否 (值为0),在其他所有情况下。
    • 一个操作是否是决定性错误 =
    • 最终要找的(责任人, 关键步骤)= 在所有被判定为“决定性错误”的操作中,找到那个步骤序号最小的操作。

这个定义非常严谨,它排除了那些无关紧要的小瑕疵,直指问题的核心。

*说明技术实现中的关键步骤*

美食评论家(评委LLM)有三种不同的方法来分析这份聊天记录:

  1. All-at-Once (全局通读法):

    • 比喻: 评论家把自己关进房间,从头到尾仔细阅读全部聊天记录。读完后,他形成了一个完整的印象:“我感觉整个项目的方向从小李买回那瓶昂贵的红酒开始就跑偏了。问题主要出在小李身上。”
    • 技术实现: 将完整的失败日志作为输入,一次性传给评委LLM,并要求它直接输出责任智能体和错误步骤。
    • 优点: 能看到全局,对**判断谁是“背锅侠”(Agent-Level)**很准。因为它能综合评估每个人的贡献和行为模式。
    • 缺点: 对于很长的日志,LLM可能会“分心”,难以精确定位到**具体是哪一步(Step-Level)**出错了,就像评论家可能只记得是小李的错,但忘了具体是第几条消息。
  2. Step-by-Step (逐条审查法):

    • 比喻: 评论家拿过聊天记录,一条一条地读。每读一条,他就停下来思考:“嗯,第一步,小张的计划没问题… 第二步,小李买牛腩,没问题…”,直到他读到第11步:“小李买了82年拉菲?等等,这不对!这就是问题所在!” 他立刻停止分析,并报告结果。
    • 技术实现: 循环遍历日志。在第 步,将前 步的日志传给评委LLM,问它“刚刚这第 步有没有犯决定性错误?”。只要LLM回答“是”,就停止并返回结果。
    • 优点: 非常专注,对**定位“致命操作”是哪一步(Step-Level)**很准。
    • 缺点: 缺乏全局观。如果一个错误的影响在后期才显现,它可能过早地判断一个不那么关键的早期错误为“致命错误”,从而在**判断“背锅侠”(Agent-Level)**上犯错。
  3. Binary Search (二分排查法):

    • 比喻: 评论家先把20条聊天记录分成两半(1-10条 vs 11-20条)。他粗略扫了一眼,心想:“前半段看起来都是常规准备工作,后半段涉及到关键材料和烹饪,问题很可能在后半段。” 于是他扔掉前半段,专注于后半段(11-20条)。然后他再把这10条记录对半分… 直到最后锁定到第11条。
    • 技术实现: 这是一个典型的二分查找算法。每次将当前日志范围一分为二,询问评委LLM错误在哪一半,然后不断缩小范围。
    • 优点: 效率和准确性介于前两者之间,是一种折中方案
*将技术细节与比喻相互映射*
*解释每个技术步骤在比喻中的体现*
  • 公式(4)和(5)的思想实验,在比喻中就是美食评论家在脑海里模拟“如果小李当时买了对的酒,结果会怎样?”。
  • All-at-Once 的“全局观”优势,就像评论家通读全文后,不仅看到了小李买错酒这个行为,还可能看到了小张在计划中没有强调红酒类型,这让他更确定小李是主要责任人,但不是唯一的。
  • Step-by-Step 的“专注”优势,就像评论家逐条审查,能立刻抓住“82年拉菲”这个显眼的、具体的错误信息,从而精确定位到第11步。
  • 比喻的局限性: 在现实中,美食评论家的大脑可以灵活地在全局和局部视角间切换。而目前的LLM还比较死板,采用哪种策略(Prompt)就会在很大程度上决定它的行为模式,因此这三种方法之间的差异非常明显。
*总结*
*重申比喻与实际技术的核心联系*

通过“厨神大赛复盘”这个比喻,我们清晰地理解了:

  • 核心目标: 找出导致菜品失败的那个决定性错误(最早的、修正后能让任务成功的错误)。
  • 核心方法: 就像美食评论家有不同的复盘策略(通读、逐条审、二分查),论文也为评委LLM设计了三种不同的分析模式(All-at-Once, Step-by-Step, Binary Search)。
  • 核心权衡: 看得全(All-at-Once)有助于找对,而看得细(Step-by-Step)有助于找准。这为我们实际应用时如何选择方法提供了宝贵的指导。

*第三阶段:详细说明流程步骤*

*1. 完整模型或方案处理问题的具体流程*

在这一阶段,我们将详细拆解论文提出的自动化故障归因方案是如何处理一个具体问题的。我们将以一个更优化的**混合流程(Hybrid Method)**为例,因为它结合了不同方法的优点,更能代表一个实用的解决方案。这个混合方法在论文的表格3中被提及。

想象一下,我们现在有了一个完整的系统,它的输入是一个失败的任务日志,输出是精准的故障归因报告。下面是这个系统内部的详细工作流:

输入数据:

  1. 用户查询 (Query): 例如,“2023年1月在西雅图Queen Anne社区售出的独栋住宅的最低价格是多少?”
  2. 失败日志 (Failure Log): 一个完整的、多轮的对话记录。记录了多个智能体(如Orchestrator, DataAnalysis_Expert, WebSurfer等)为了回答上述问题而进行的一系列交互,但最终给出了错误或失败的答案。

处理流程开始

*步骤一:全局扫描,锁定“嫌疑人”(识别责任智能体 Who)*

这个阶段的目标是找出最可能犯错的那个智能体,我们采用最适合这个任务的 All-at-Once(全局通读法)

  1. 准备输入: 将完整的失败日志用户查询打包成一个结构化的文本。这个文本会通过一个精心设计的提示(Prompt)模板来组织。

  2. 调用评委LLM: 将这个打包好的、包含完整信息的文本发送给评委LLM(例如GPT-4)。

  3. 获取初步结果: 评委LLM会“通读”整个故事,然后给出一个它认为的“头号嫌疑人”。

    • 输出示例: DataAnalysis_Expert

此步骤的内部逻辑: 评委LLM通过全局上下文发现,虽然其他智能体可能也有小问题,但DataAnalysis_Expert在某个关键节点上做出了一个偏离任务目标的决策(比如,在找不到真实数据时,它决定去生成模拟数据,而不是让WebSurfer再去网上搜索一下,这显然是错误的方向)。这种对整体方向的判断需要全局视野,因此All-at-Once方法最有效。

此步骤的输出: 一个字符串,即责任智能体的名字:“DataAnalysis_Expert”。这个输出将作为下一步的输入。


*步骤二:聚焦排查,定位“犯罪现场”(识别关键错误步骤 When)*

现在我们已经有了一个明确的嫌疑人DataAnalysis_Expert,我们不再需要检查所有智能体的所有行为。我们的目标是精准定位DataAnalysis_Expert的哪一步操作是“致命一击”。这里我们采用最适合精确定位的 Step-by-Step(逐条审查法)

  1. 过滤日志: 首先,从原始的完整失败日志中,筛选出所有由DataAnalysis_Expert执行的步骤。这将创建一个更短、更聚焦的“嫌疑人行为日志”。

    • 输入: 完整的失败日志 和 责任智能体名字“DataAnalysis_Expert”。
    • 输出: 一个只包含DataAnalysis_Expert发言的日志子集。
  2. 逐条审查: 我们将按时间顺序遍历这个“嫌疑人行为日志”。对于DataAnalysis_Expert每一个行为: a. 准备输入: 准备一个输入给评委LLM。这个输入包含: * 用户查询。 * 截止到当前审查步骤的完整对话历史(注意,是原始日志的历史,而不仅仅是嫌疑人的日志,这样LLM才知道上下文)。 * 一个Step-by-Step模式的提示模板。 b. 调用评委LLM: 将上述准备好的输入发送给评委LLM。 c. 分析评委LLM的响应: * 如果评委LLM回答“”,则说明这一步没问题。我们继续循环,审查DataAnalysis_Expert的下一步行为。 * 如果评委LLM回答“”,则说明我们已经找到了“犯罪现场”!这就是我们寻找的决定性错误步骤。我们立即停止循环。

  3. 获取最终步骤: 记录下评委LLM回答“是”时的那个步骤的原始索引号(在完整日志中的位置)。

    • 输出示例: 步骤号 7

此步骤的内部逻辑: 由于我们已经锁定了嫌疑人,Step-by-Step的“缺乏全局观”的缺点被大大缓解了。它的“专注细节”的优点被充分发挥。当评委LLM看到DataAnalysis_Expert在第7步说“既然我们没有文件,我将用样本数据来演示…”时,它能立刻判断出这是一个与任务目标(寻找真实最低价)相悖的严重错误。

此步骤的输出: 一个整数,即决定性错误步骤的索引号:7


*2. 最终输出*

系统将前两步的结果整合起来,形成一份结构化的、人类可读的故障归因报告。

  • 责任智能体 (Failure-Responsible Agent): DataAnalysis_Expert
  • 决定性错误步骤 (Decisive Error Step): 7
  • 错误原因 (Reason for Mistake): (从评委LLM的解释中提取)“DataAnalysis_Expert在无法访问真实数据时,错误地选择了生成合成数据,而不是指示其他智能体继续尝试获取真实数据,这导致最终结果偏离了用户查询的初衷。”

通过这个两阶段的混合流程,我们充分利用了All-at-Once方法在宏观判断上的优势和Step-by-Step方法在微观定位上的优势,实现了一个比单一方法更准确、更鲁棒的自动化故障归因系统。

*第四阶段:实验设计与验证分析*

*1. 主实验设计解读:核心论点的验证*
  • 核心主张:论文的核心主张是:1) 自动化故障归因是可行的;2) 不同的归因策略在识别“责任人(Who)”和“错误时间点(When)”上存在根本性的权衡(trade-off)。

  • 实验设计分析:主实验(见Table 1)直接围绕这个主张展开。作者将三种核心方法(All-at-Once, Step-by-Step, Binary Search)在他们构建的Who&When数据集上进行了全面的评估。

    • 合理性分析:选择的基线很有说服力。
    • *Random (随机猜测)**:这是一个“地板级”的基线,用于证明论文提出的方法确实学到了东西,而不是瞎蒙。从Table 1看,所有方法都远超随机猜测,证明了其*有效性
    • 三种方法互为基线:All-at-Once, Step-by-Step, Binary Search 相互比较,这恰恰是为了揭示它们各自的优劣和适用场景,是验证核心权衡论点的关键。
    • 合理性分析:选择了两个直击要害的指标:
    • 这两个指标与论文要解决的“Who”和“When”问题完美对应,能非常公正、直接地衡量方法的性能。
    • Agent-Level Accuracy (智能体层面准确率):衡量“找对人”的能力。
    • Step-Level Accuracy (步骤层面准确率):衡量“找准事”的能力。
    • 合理性分析:这个选择非常合理。首先,这是该领域首个专门的基准数据集,填补了空白。其次,它具有很强的多样性挑战性
    • 这个设计确保了评估的全面性,避免了方法只在“玩具问题”上有效的偏见。
    • 算法生成系统 (Algorithm Generated)**:这类系统的日志相对简短、结构化,用于测试方法在**简单、受控场景下的基础能力。
    • 手工设计系统 (Hand Crafted, 如Magnetic-One)**:这类系统更成熟、复杂,其失败日志更长、交互逻辑更真实,用于测试方法在**接近真实世界复杂应用中的表现。
    • 数据集 (Who&When)
    • 评价指标
    • 基线方法 (Baselines)
  • 主实验结论:Table 1 的结果强有力地支撑了核心论点。例如,在Hand Crafted系统上:

    • All-at-Once 的Agent-Level Accuracy (55.17%) 显著高于 Step-by-Step (34.48%),证明了全局信息对“找人”的重要性
    • Step-by-Step 的Step-Level Accuracy 在多数情况下优于 All-at-Once,证明了聚焦分析对“找事”的优越性
    • 这清晰地展示了**“全局 vs 局部”的权衡**,这是论文最核心的发现。
*2. 消融实验分析:内部组件的贡献*
  • 关键模块验证:论文中最核心的消融实验在 Figure 7 中,它旨在验证**“提示中包含推理步骤”**这一设计的有效性。

  • “消融”的部分与创新点

    • 被“消融”的是Prompt中的推理要求。完整的Prompt不仅要求LLM给出答案(谁错了,哪步错了),还要求它**“解释犯错的原因”**。消融实验就是把这个“解释原因”的要求去掉,让LLM直接“裸输出”答案。
    • 这直接对应了“利用LLM的链式思考(Chain-of-Thought)能力来提升复杂任务性能”这一广泛接受但需要验证的假设。
  • 结果证明

    • Figure 7显示,移除推理要求后,所有方法的性能都出现了显著下降。例如,在手工设计系统上,All-at-Once的Agent-Level准确率从54%下降到47%。
    • 这个性能下降定量地证明了:强制LLM进行显式的推理分析,是提升其故障归因准确性的一个必要且不可或替代的环节。这不仅仅是让输出更可读,而是实实在在地提升了模型本身的判断力。
*3. 深度/创新性实验剖析:洞察方法的内在特性*

作者设计了多个巧妙的实验,来揭示方法的更深层特性。

  • 实验1:统计性分析 (Statistical Viewpoint) - Figure 6

    • 实验目的:回答一个非常实际的问题:“即使我的方法在每个案例上都不是100%准确,它能否从宏观上告诉我,我的系统哪个部分最薄弱?”
    • 实验设计:这个实验非常巧妙。它没有计算单次预测的准确率,而是将所有预测出的“责任智能体”进行汇总统计,画出直方图,并与真实情况的统计直方图进行对比。
    • 实验结论:结果令人振奋。尽管单例准确率只有50%左右,但预测出的最常犯错的智能体(如Agent 3, WebSurfer)与真实情况完全一致。这揭示了一个深刻的洞见:这些方法作为统计诊断工具具有巨大的实用价值,可以指导开发者进行系统性的、高优先级的优化,而不是在个别案例上大海捞针。
  • 实验2:参数敏感性分析 (Context Length) - Figure 4

    • 实验目的:探究方法性能如何随失败日志的长度变化,这直接关系到方法在处理真实复杂问题时的鲁棒性
    • 实验设计:作者将手工设计系统的长日志按长度分成了5个等级,并分别测试了三种方法的性能。
    • 实验结论:所有方法的性能都随着日志长度的增加而下降,尤其是Step-Level Accuracy(找准事)下降得更快。这直观地展示了“大海捞针”问题的严重性,并指出了长上下文处理能力是未来研究需要攻克的关键瓶颈
  • 实验3:组合方法探索 (Hybrid Method) - Table 3

    • 实验目的:既然All-at-Once和Step-by-Step各有优劣,我们能否取长补短,设计一个更好的组合方法?
    • 实验设计:作者设计了一个混合方法:先用All-at-Once找“人”,再用Step-by-Step在“嫌疑人”的行为中找“事”。
    • 实验结论:混合方法在Agent-Level上保持了All-at-Once的高准确率,同时在Step-Level上大幅超越了所有单一方法。这不仅提供了一个性能更强的模型,更重要的是,它为实际应用提供了一个最佳实践范式,展示了如何聪明地组合不同策略来解决复杂问题。
  • 实验4:更强模型的能力探究 - Table 4

    • 实验目的:验证一个普遍的迷思:“是不是只要用更强的模型(如SOTA的OpenAI o1),问题就迎刃而解了?”
    • 实验设计:用更先进的推理模型替换掉原来的GPT-4o,在同样的任务上进行测试。
    • 实验结论:结果出人意料。更强的模型并不一定带来更好的性能,甚至在某些指标上有所下降。这个结论极具价值,它告诉我们:自动化故障归因是一个本质上很困难的推理任务,其瓶颈不仅在于模型能力,更在于解决问题的方法论本身。这为该领域未来的研究方向(即开发更精巧的归因算法,而不仅仅是等待下一个更强的LLM)提供了有力佐证。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值