本文是LLM系列文章,针对《More Agents Is All You Need》的翻译。
摘要
我们发现,简单地通过采样和投票方法,大型语言模型(LLM)的性能会随着实例化代理的数量而变化。此外,该方法与现有的复杂方法正交,以进一步增强LLM,而增强程度与任务难度相关。我们在广泛的LLM基准上进行了全面的实验,以验证我们的发现的存在,并研究有助于其发生的特性。我们的代码公开在:Git。
1 引言
2 相关工作
3 方法
4 实验设置
5 实验结果
6 理解性能收益
7 结论和未来工作
在本文中,我们报告说,您只需要更多的代理,即,只需添加更多的实例化LLM代理,就可以在处理复杂任务时获得更好的LLM性能,而不需要麻烦复杂的方法,如CoT管道、多智能体协作框架等。
我们在文献中进行了第一次全面的研究,以了解这样的“比例定律”,包括它何时成立以及如何促进它的发生。
结果表明,我们用于实例化代理的简单采样和投票方法通常可以通过增加集成大小来提高LLM的性能。重要的是,这种方法与不同的现有方法正交,当与它们结合时,可以导致进一步的改进。
此外,我们观察到,性能收益受到任务难度的影

研究表明,通过增加大型语言模型(LLM)的实例化代理数量,性能可得到改善,且此方法与现有复杂技术正交。实验揭示了“规模定律”,性能收益与任务难度有关,难度越大,收益可能越高。虽然成本增加是个挑战,但提供了一种优化LLM性能的新途径。
已下架不支持订阅
1477

被折叠的 条评论
为什么被折叠?



