本文是LLM系列文章,针对《Beyond Lines and Circles: Unveiling the Geometric Reasoning Gap in Large Language Models》的翻译。
摘要
大型语言模型(LLM)在数学和算法任务方面表现出越来越强的能力,但其几何推理技能却没有得到充分的探索。我们研究LLM在构造性几何问题解决方面的能力,这是人类数学推理发展的最基本步骤之一。我们的工作揭示了最先进的LLM在这一领域面临的显著挑战,尽管在类似领域取得了许多成功。LLM在目标变量选择方面表现出偏见,并难以处理二维空间关系,经常歪曲和幻觉物体及其位置。为此,我们引入了一个框架,该框架制定了一个基于LLM的多代理系统,通过进行内部对话来增强其现有的推理潜力。这项工作强调了LLM目前在几何推理方面的局限性,并通过自我纠正、协作和多样化的角色专业化提高了几何推理能力。
1 引言
2 相关工作
3 前言
4 方法
5 实验
6 消融实验
7 结论
我们的研究强调了LLM在构造几何中面临的内在挑战。我们观察到来自其他数学领域的技能转移有限,典型提示技术的不足,以及缺乏2D空间推理。因此,我们发现,除非我们用强大的归纳偏差(如定理证明器)来加强系统,否则现有的LLM在几

研究发现,大型语言模型(LLM)在数学和算法任务上表现出色,但在几何推理方面存在显著短板,尤其在二维空间关系处理上。通过构建多智能体系统,改善LLM的推理能力并提升几何问题解决效果。
已下架不支持订阅
1万+

被折叠的 条评论
为什么被折叠?



