本文是LLM系列的文章,针对《A Survey of Knowledge-Enhanced Pre-trained Language Models》的翻译。
知识增强的预训练语言模型综述
摘要
预训练语言模型(PLM)通过自监督学习方法在大文本语料库上进行训练,在自然语言处理(NLP)的各种任务中都取得了良好的性能。然而,尽管具有巨大参数的PLM可以有效地拥有从大量训练文本中学习到的丰富知识,并在微调阶段有利于下游任务,但由于缺乏外部知识,它们仍然存在一些局限性,如推理能力差。研究一直致力于将知识纳入PLM,以解决这些问题。在本文中,我们对知识增强预训练语言模型(KE-PLM)进行了全面的综述,以对这一蓬勃发展的领域提供清晰的见解。我们分别为自然语言理解(NLU)和自然语言生成(NLG)引入了适当的分类法,以突出NLP的这两个主要任务。对于NLU,我们将知识类型分为四类:语言知识、文本知识、知识图谱和规则知识。NLG的KE PLM分为基于KG的方法和基于检索的方法。最后,我们指出了KE PLM的一些有前景的未来方向。
1 引言
2 背景
3 KE-PLMs用于NLU
4 KE-PLMs用于NLG
5 未来的方向
在本节中,我们提出了未来KE PLM的一些可能的研究方向,这些方向可能会解决现有的问题和挑战。
5.1 整合来自同质和异质来源的知识
由于现有的工作大多只利用单一来源的知识,如知识图谱或网络资源,探索如何整合异构来源的知识仍然是未来研究的一个有价值的方向。
正如我们在上一节

本文详细探讨了知识增强预训练语言模型(KE-PLM),指出虽然PLM在NLP任务中表现出色,但缺乏外部知识导致推理能力不足。KE-PLM通过整合不同类型的外部知识,如语言知识、文本知识、知识图谱和规则知识,提高了NLU和NLG的性能。未来的研究方向包括整合异构知识源、探索多模态知识、提供可解释性证据、持续学习知识、优化知识整合效率以及增加生成结果的多样性。
订阅专栏 解锁全文
990

被折叠的 条评论
为什么被折叠?



