AI Agent(智能体)作为大模型的重要应用模式,能够通过使用外部工具来执行复杂任务,完成多步骤的工作流程。为了更全面地评估模型的工具使用能力,司南及合作伙伴团队推出了T-Eval评测基准,相关成果论文已被ACL 2024主会录用,点击链接可查看原文:https://arxiv.org/abs/2312.14033。
T-Eval评测基准
使用了工具的大语言模型有着惊艳的问题解决能力,但是如何评估模型的工具使用能力还有很大的探索空间。现有评估方法通常只关注模型处理单步骤任务时的工具调用表现,缺少在多步骤复杂任务场景下模型使用工具能力的评估。
因此,为了更全面地评估大语言模型的工具使用能力,司南及合作伙伴团队推出了 T-Eval (a step-by-step Tool Evaluation benchmark for LLMs) 评测基准,相较于之前整体评估模型的方式,论文中将大模型的工具使用分解为多个子过程,包括规划、推理、检索、理解、指令跟随和审查。
-
规划(PLAN):制定工具调用策略。
-
推理(REASON):理解工具使用环境和自身功能,生成逻辑思考内容。
-
检索(RETRIEVE):从给定的工具列表中选择合适的工具。
-
理解(UNDERSTAND):正确理解工具使用的参考文档和所需参数。
-
指令跟随(INSTRUCT):生成指定格式的工具调用请求。

最低0.47元/天 解锁文章
2216

被折叠的 条评论
为什么被折叠?



