Using Large Language Models for Zero-Shot Natural Language Generation from Knowledge Graphs

828 篇文章

已下架不支持订阅

本文是LLM系列文章,针对《Using Large Language Models for Zero-Shot
Natural Language Generation from Knowledge Graphs》的翻译。

利用大型语言模型从知识图谱生成零样本自然语言

摘要

在任何使用结构化知识图谱(KG)数据作为其底层知识表示的系统中,KG到文本生成都是一种有用的工具,可以将图数据的一部分转化为人类可以理解的文本。最近的工作表明,即使在特定的图到文本任务上的训练数据相对较少,利用对大量文本数据进行预训练的模型也可以在KG到文本任务中表现良好。在本文中,我们在这个概念的基础上,使用大型语言模型来执行零样本生成,只基于模型从它所能读取的内容对三重结构的理解。我们表明,ChatGPT在WebNLG 2020挑战的某些指标上实现了接近最先进的性能,但在其他指标上落后了。此外,我们比较了事实陈述、反事实陈述和虚构陈述,并表明LLM对其正在解析的数据的了解与输出文本的质量之间存在显著联系。

1 引言

2 背景

3 将LLM应用于WebNLG 2020挑战

4 评估KG真实性的效果

5 讨论

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值