知识图谱常用指标:MRR、Hits@1、Hits@10、MR

知识图谱常用指标:MRR、Hits@1、Hits@10、MR

一、MRR


        MRR的全称是Mean Reciprocal Ranking,其中Reciprocal是指“倒数的”的意思。具体的计算方法如下:

其中是三元组集合,是三元组集合个数,是指第个三元组的链接预测排名。该指标越大越好。例如,对于三元组(Jack,born_in,Italy),链接预测的结果可能是:

s        p         o            score   rank
Jack   born_in   Ireland        0.789      1
Jack   born_in   Italy          0.753      2  *
Jack   born_in   Germany        0.695      3
Jack   born_in   China          0.456      4
Jack   born_in   Thomas         0.234      5

二、MR


        MR的全称是Mean Rank。具体的计算方法如下:

 

上述公式涉及的符号和MRR计算公式中涉及的符号一样。该指标越小越好。

三、HITS@n


        该指标是指在链接预测中排名小于的三元组的平均占比。具体的计算方法如下:

 

其中,上述公式涉及的符号和MRR计算公式中涉及的符号一样,另外是indicator函数(若条件真则函数值为1,否则为0)。一般地,取等于1、3或者10。该指标越大越好。

四、注意


        MRR和HITS@10是两个重要指标,不可缺少。MR则不被认为是一个好的指标。
 

<think>好的,我现在需要详细介绍一下FB15k-237数据集。首先,我应该回顾一下已有的知识,确保信息的准确性,同时可能需要查阅一些资料来补充细节。 首先,FB15k-237是知识图谱领域常用的数据集,用于知识表示学习和链接预测等任务。我记得它是从Freebase中提取的,但后来对原始数据集进行了调整,比如删除了反向关系,以避免测试时的数据泄漏问题。这一点可能需要详细说明。 接下来,我应该介绍它的来源。原始数据集是FB15k,而FB15k-237是其改进版。改进的原因是什么?可能是在评估模型时发现存在反向关系的问题,导致模型可能通过记忆这些关系而不是真正学习,从而影响评估效果。因此,FB15k-237移除了这些反向关系,并将关系数量从原来的1345减少到237,这也是数据集名称的由来。 然后,数据集的组成结构。通常包括训练集、验证集和测试集,每个部分包含三元组(头实体,关系,尾实体)。需要给出具体的数据量,比如训练集、验证集和测试集各有多少三元组。例如,训练集可能有约27万条,验证集约1.7万,测试集约2万条左右?需要确认准确数字。 另外,数据集的实体数量和关系数量是多少?比如,FB15k-237包含大约14,541个实体和237种关系,对吗?这些数据可能需要查证。此外,这个数据集常用于哪些任务?比如链接预测,三元组分类等。常见的评估指标MRRHits@10等。 还需要提到该数据集的应用场景,比如TransE、TransH、ComplEx等模型常在此数据集上进行测试。可能存在的问题或挑战是数据集的稀疏性,某些关系或实体出现次数较少,影响模型效果。同时,由于移除了反向关系,模型需要更好地捕捉关系的语义,而不仅仅是依赖对称关系。 另外,可能需要比较FB15k和FB15k-237的区别,强调后者解决了数据泄漏的问题,更适合评估模型的泛化能力。还可以提到该数据集的下载来源,比如通过GitHub或学术网站获取,以及相关的论文引用,如Toutanova等人的工作。 在整理这些信息时,需要确保准确性,比如具体的实体数、关系数、三元组数量是否正确。可能需要查阅相关论文或官方文档来确认。例如,FB15k-237的数据统计:大约14.5k实体,237关系,训练三元组约272k,验证17k,测试20k?或者是否有不同的数据?需要核对。 总结下来,结构大致分为:背景与来源、改进原因、数据组成、应用任务、评估指标、常见模型、挑战与注意事项等部分。需要以清晰的中文进行组织,确保信息准确,并且易于理解。</think>FB15k-237 是知识图谱(Knowledge Graph)领域广泛使用的基准数据集,主要用于知识表示学习(Knowledge Representation Learning)和链接预测(Link Prediction)等任务。以下是对其详细情况的介绍: --- ### **1. 背景与来源** - **基础来源**:基于 Freebase 知识库构建。Freebase 是一个大规模协作知识图谱,包含实体(如人物、地点)及它们之间的关系(如“出生于”“首都”)。 - **前身与改进**:FB15k-237 是原始数据集 **FB15k** 的改进版本。FB15k 存在**反向关系冗余**问题(例如同时包含“老师”和“学生”这种互逆关系),导致模型可能通过简单记忆而非学习语义规律,影响评估有效性。FB15k-237 通过移除冗余关系并严格划分数据集,解决了这一问题。 --- ### **2. 核心数据统计** - **实体数量**:约 14,541 个。 - **关系类型**:237 种(名称中的“237”由此而来,相较于 FB15k 的 1,345 种关系大幅减少)。 - **三元组数量**: - **训练集**:272,115 个(用于模型学习)。 - **验证集**:17,535 个(用于调参)。 - **测试集**:20,466 个(用于最终评估)。 --- ### **3. 主要特点** - **无冗余反向关系**:严格筛选关系,避免测试时的数据泄漏(data leakage)。 - **稀疏性挑战**:部分实体或关系出现频率较低,考验模型对长尾数据的处理能力。 - **任务适配性**:专为链接预测设计,要求模型预测缺失的三元组(如给定头实体和关系,预测尾实体)。 --- ### **4. 常用任务与评估指标** - **链接预测(Link Prediction)**: - **任务形式**:给定三元组中的两个元素(如头实体和关系),预测缺失的第三个元素(尾实体)。 - **评估指标**: - **MR(Mean Rank)**:正确实体的平均排名(数值越低越好)。 - **MRR(Mean Reciprocal Rank)**:排名倒数的均值(更关注高排名结果)。 - **Hits@k**(如 Hits@10):正确实体出现在前 k 个预测中的比例。 --- ### **5. 常用模型** FB15k-237 常被用于验证知识表示学习模型的性能,典型模型包括: - **平移模型**:TransE、TransH、TransR 等,通过向量空间中的平移操作建模关系。 - **张量分解模型**:RESCAL、ComplEx(利用复数空间捕捉对称/非对称关系)。 - **图神经网络**:RGCN、ConvE 等,结合图结构信息进行表示学习。 --- ### **6. 挑战与注意事项** - **稀疏关系建模**:部分关系仅有少量样本,需模型具备强泛化能力。 - **语义复杂性**:需区分相似关系(如“工作于” vs. “就职于”)及处理多对多关系。 - **数据划分严谨性**:严格避免训练集与测试集的信息重叠,确保评估可靠性。 --- ### **7. 获取与引用** - **下载地址**:可通过学术平台(如 Papers With Code)或 GitHub 仓库获取。 - **关键论文**: - 原始改进:Toutanova et al. (2015) 提出 FB15k-237,解决反向关系问题。 - 基准研究:Bordes et al. (2013) 的 TransE 模型在 FB15k 系列数据集上验证有效性。 --- ### **总结** FB15k-237 通过优化数据结构和严格划分,成为评估知识图谱模型泛化能力的黄金标准。其设计反映了真实场景中知识的不完备性与复杂性,对推动知识表示学习领域的发展具有重要意义。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

lhyangtop

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值