本文是LLM系列文章,针对《Using Large Language Models for Zero-Shot
Natural Language Generation from Knowledge Graphs》的翻译。
利用大型语言模型从知识图谱生成零样本自然语言
摘要
在任何使用结构化知识图谱(KG)数据作为其底层知识表示的系统中,KG到文本生成都是一种有用的工具,可以将图数据的一部分转化为人类可以理解的文本。最近的工作表明,即使在特定的图到文本任务上的训练数据相对较少,利用对大量文本数据进行预训练的模型也可以在KG到文本任务中表现良好。在本文中,我们在这个概念的基础上,使用大型语言模型来执行零样本生成,只基于模型从它所能读取的内容对三重结构的理解。我们表明,ChatGPT在WebNLG 2020挑战的某些指标上实现了接近最先进的性能,但在其他指标上落后了。此外,我们比较了事实陈述、反事实陈述和虚构陈述,并表明LLM对其正在解析的数据的了解与输出文本的质量之间存在显著联系。