本文是LLM系列文章,针对《Automated Theorem Provers Help Improve Large Language Model Reasoning》的翻译。
摘要
在本文中,我们演示了逻辑编程系统和自动一阶逻辑定理证明器 (ATP) 如何提高逻辑推理任务的大型语言模型 (LLM) 的准确性,其中基线性能由直接 LLM 解决方案给出。我们首先使用 PRONTOQA 基准评估压路机问题上的 LLM 推理。我们展示了如何通过神经符号架构来提高准确性,其中LLM仅充当将给定问题转换为形式逻辑语言的前端,并调用自动推理引擎来解决它。然而,这种方法关键取决于LLM翻译的正确性。为了评估翻译的正确性,我们其次定义了句法和语义错误类别的框架。我们实现了该框架,并用它来识别LLM在基准领域所犯的错误。基于这些发现,我们第三次扩展了我们的方法,具有自动纠正语法和语义错误的功能。对于语义错误校正,我们集成了一阶逻辑 ATP,这是我们的主要且新颖的贡献。我们证明这种方法显着减少了语义错误,并进一步提高了 LLM 逻辑推理的准确性。
1 引言,背景和相关工作
2 我们的方法
3 结果
4 讨论
5 结论
在这项研究中,我们以三种不同的方式研究了自动推理和大型语言模型的交叉点。首先,我们探索了LLM作为独立推理引擎的能力。其次,我们尝试将LLM与外部自动推理系统结合起来。第三,我们实现了自动推理技术来调试LLM推理。
我们已经证明,用 AR 系统增强LLM的推理能力,其推理能力可以达到与思维链提示类似的水平,但还具有可靠的可解释性。此外,我们还引入了 SEDAC 算法,该算法可以充当自动更

订阅专栏 解锁全文
2万+

被折叠的 条评论
为什么被折叠?



