本文是LLM系列文章,针对《Is Knowledge All Large Language Models Needed for Causal Reasoning?》的翻译。
摘要
本文探讨了大型语言模型(LLM)的因果推理,以提高其在推进人工智能中的可解释性和可靠性。尽管LLM在一系列任务中都很熟练,但它们理解因果关系的潜力还需要进一步探索。我们提出了一种新的因果归因模型,该模型利用“操作算子”来构建反事实场景,使我们能够系统地量化输入数值数据和LLM预先存在的知识对其因果推理过程的影响。我们新开发的实验装置评估了LLM在各个领域对上下文信息和固有知识的依赖性。我们的评估表明,LLM的因果推理能力取决于所提供的上下文和特定领域的知识,并支持这样一种论点,即知识确实是LLM进行合理因果推理的主要要求。相反,在缺乏知识的情况下,LLM仍然使用可用的数字数据保持一定程度的因果推理,尽管计算有局限性。我们提出的方法的Python实现在