本文是LLM系列文章,针对《Corex: PUSHING THE BOUNDARIES OF COMPLEX REASONING THROUGH MULTI-MODEL COLLABORATION》的翻译。
摘要
大型语言模型(LLM)正以前所未有的速度发展,并在具有世界知识的自然语言处理(NLP)领域表现出相当大的能力。得益于超大规模的训练语料库,单个LLM可以胜任典型的NLP任务。然而,它在执行复杂推理任务时的性能仍然受到其内部表示的限制。为了进一步推动这一边界,我们在本文中介绍了Corex,这是一套新颖的通用策略,可以将LLM转换为自治代理,开创了复杂任务解决的多模型协作。受人类行为的启发,Corex由多种协作模式组成,包括辩论、审查和检索模式,这些模式共同致力于提高推理过程的真实性、忠实性和可靠性。这些范式促进了任务不可知论方法,使LLM能够“跳出框框思考”,从而克服幻觉并提供更好的解决方案。通过对四种不同类型的推理任务进行广泛的实验,我们证明,与现有方法相比,协调多个LLM协同工作会产生更好的性能。进一步的结果和深入的分析证明了我们的方法的成本效益,促进了不同LLM之间的协作并提高了注释效率。
1 引言
2 相关工作
3 Corex
4 实验
5 分析
6 结论
我们在本文中介绍了Corex,这是一套将LLM转换
Corex是一种新型策略,通过多模型协作增强大型语言模型(LLM)的复杂推理性能。受人类行为启发,Corex包含辩论、审查和检索模式,提升推理的真实性和可靠性。实验表明,与现有方法相比,Corex协调多个LLM协同工作能取得更好效果,且具有任务无关性、成本效益和注释效率优势。
已下架不支持订阅
1074

被折叠的 条评论
为什么被折叠?



