Empowering Large Language Model Agents through Action Learning

828 篇文章

已下架不支持订阅

本文是LLM系列文章,针对《Empowering Large Language Model Agents through Action Learning》的翻译。

通过行动学习增强大型语言模型代理的能力

摘要

大型语言模型(LLM)代理最近引起了人们越来越多的兴趣,但它们从试错中学习的能力有限,而试错是智能行为的关键要素。在这项工作中,我们认为从经验中学习新动作的能力是LLM代理学习进步的基础。虽然人类通过体验式学习自然地扩展他们的行动空间并发展技能,但LLM代理通常在固定的行动空间内运作,限制了他们的成长潜力。为了应对这些挑战,我们的研究探索了语言代理的开放式动作学习。我们引入了一个带有迭代学习策略的框架LearnCat,以Python函数的形式创建和改进动作。在每次迭代中,LLM都会根据在不成功的训练任务中发现的错误来修改和更新当前可用的行动,从而提高行动的有效性。我们在机器人规划和Alfworld环境中的实验评估表明,在学习了一些训练任务实例后,我们的开放式动作学习方法显著提高了该类型任务的代理性能——与ReAct+Reflexion相比,Alfworld提高了32%,例如,强调了体验式动作学习在开发更智能的LLM代理中的重要性。代码位于https://github.com/zhao-ht/LearnAct

1 引言

2 相关工作

3 问题陈述

4 方法

5 实验

6 结论

总之,我们的研究通过使LLM代理具备通过与环境的直接互动来学习和完善行为的能力,从而推动了LLM代理的发展。我们提出的框架LearnIt通过实现开放式动作学习,证明了代理性能的显著提高,这与人类获取和增强技能的方式密切相关。我们的方法在机器人规划和Alfworld环境中的经验成功突出了动作学习在开发更智能、更能干的LLM代理方面的潜力。

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值