自2023年以来,大语言模型(Large Language Models,LLMs)的兴起已经改变了科技行业的面貌。科创公司如果不涉足这一领域,似乎就不好意思称自己是科技企业。
然而,随着大语言模型的普及,它固有的缺陷也不断地暴露出来。
例如,GPT-4在“自我纠正”方面的成功率仅为 1% ,这一现象引发了公众对大模型推理能力的质疑。
简单来说,在大模型在处理推理任务时存在局限性,如果模型不知道正确答案,通过自我纠正来改进输出将徒劳无功,甚至可能降低输出质量。
这表明,大模型虽然能够模拟人类语言,但在处理逻辑和推理任务时,仍然存在“一本正经地胡说八道”的问题。
因为他们的本质是通过大量语言模型训练来模拟人类大脑。
然而,人类的记忆本就是模糊的,通常需要依靠外部暗示或记录来唤醒。大模型亦是如此,它们需要依赖外部知识源和推理能力来解决幻觉问题。
幸运的是,最新的研究论文提到图技术能够为大模型装上一颗“侦探的大脑”。
图技术包括图计算引擎、图数据库和图可视化等,它们能够描述、刻画、分析和计算事物之间的关系,并在风险评估、事件溯源、因果推理和影响分析等方面提供支持。
图技术的出现,在一定程度上解决了大模型处理复杂推理和问答任务时的局限。
与大模型相比,图技术能够更好地处理复杂的逻辑关系和多种数据结构,更全面地分析和理解数据之间的关系,提高推理和决策的准确性。
在处理复杂的推理和问答任务,特别是涉及多个变量和条件的情况时,图技术可以将问题抽象为图结构,并利用图算法进行分析,有效解决复杂问题,弥补大型语言模型推理能力的不足,实现更广泛的应用和发展。