Evaluating the Factuality of Large Language Models using Large-Scale Knowledge Graphs

GraphEval: LLM事实性评估

本文是LLM系列文章,针对《Evaluating the Factuality of Large Language Models using Large-Scale Knowledge Graphs》的翻译。

使用大规模知识图谱评估大型语言模型的真实性

摘要

大型语言模型(LLMs)的出现极大地改变了人工智能的格局,增强了机器学习和人工智能的能力。事实性问题是LLM的一个关键问题,因为它们可能会产生与事实不符的回答。在这篇论文中,我们提出了GraphEval来使用一个相当大的测试数据集来评估LLM的性能。具体来说,测试数据集是从一个包含1000多万个事实的大型知识图谱中检索出来的,无需付出昂贵的人力。与基于生成的响应评估LLM的传统方法不同,GraphEval通过创建判断模型来估计LLM给出的答案的正确性,从而简化了评估过程。我们的实验表明,法官模型的真实性评估与LLM生成的输出的正确性密切相关,同时也大大降低了评估成本。此外,我们的研究结果为不同指标的LLM绩效提供了宝贵的见解,并强调了未来在确保LLM产出的事实完整性方面进行改进的潜力。该代码可在以下网址公开获取https://github.com/xz-liu/GraphEval.

1 引言

2 相关工作

3 方法

4 实验

5 结论

我们介绍GraphEval,这是一种创新的方法,用于评估LLM对大量测试数据集的有效性,这些数据集来自包含1000多万个事实的广泛知识图谱,大大减少了昂贵的人为干预的必要性。GraphEval通过在LLM本身中嵌入判断模块,不仅完善了评估过程,还为评估这些模型所提供信息的准确性

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值