论文浅尝 | KG Embedding with Iterative Guidance from Soft Rules

640?wx_fmt=png

论文链接:https://www.aaai.org/ocs/index.php/AAAI/AAAI18/paper/download/16369/16011

发表会议:AAAI 2018


摘要

知识图谱表示学习旨在将实体和关系嵌入到向量空间,同时保留知识图谱的内在结构。传统方法主要基于关系三元组学习知识图谱的嵌入表示。本文认为,知识图谱中的逻辑规则对于表示学习也很有帮助,于是提出了一个新的表示学习模型RUGE (Rule-Guided Embedding)RUGE的主要特点是,利用从知识图谱自动抽取的规则迭代地预测未标记三元组,并将其加入训练来增强表示学习。

方法介绍

RUGE框架如下图所示。与传统方法不同,该模型除了利用labeled三元组,还同时引入了unlabeled三元组和逻辑规则。RUGE利用自动抽取的规则,生成带有置信度的unlabeled

### KG Embedding 技术原理 知识图谱嵌入(Knowledge Graph Embedding, KGE)是一种将知识图谱中的实体和关系映射到低维连续向量空间的技术。这种技术使得原本离散的符号化数据能够被机器学习模型处理,从而更好地支持复杂的推理任务[^2]。 具体来说,在KGE过程中,每一个实体\( e \in E \) 和每一种关系 \( r \in R\) 被表示成一个固定长度的实数向量。这些向量通常位于欧几里得空间或其他类型的几何结构内,比如双曲空间。通过这种方式,不仅保留了原始知识图谱的信息,还允许利用距离度量来衡量不同节点间的相似性和关联程度[^1]。 为了获得高质量的嵌入表示,研究人员开发了一系列损失函数用于指导训练过程。常见的目标是最小化已知三元组\((h,r,t)\) 的预测得分与其真实标签之间的差异。例如TransE模型假设对于有效的关系(h,r,t),头实体\( h \) 加上关系r应该接近于尾实体t的位置;即满足方程\[ h+r≈t \][^2]。 ### 应用场景 #### 推荐系统 在电子商务平台中,商品之间可能存在多种复杂联系,如品牌归属、类别划分等。借助KGE技术可构建细粒度的商品间交互模式,进而提升个性化推荐效果。此外,还可以结合用户行为序列进一步优化推荐策略。 #### 实体链接与消歧 当面对大量未标注文本时,如何识别并解析其中提及的具体对象成为一大难题。此时可以通过预先训练好的KG embedding模型辅助完成命名实体识别(NER)后的指代消解工作,提高跨文档一致性。 #### 自然语言问答(QA) 针对特定领域内的封闭型问题解答需求,基于预训练的知识库可以迅速定位最有可能的答案候选集。特别是那些涉及因果逻辑链路较长的问题情境下表现尤为突出[^3]。 ```python import torch from transformers import AutoModelForSequenceClassification, AutoTokenizer def load_kge_model(model_name='transe'): tokenizer = AutoTokenizer.from_pretrained('facebook/bart-large') model = AutoModelForSequenceClassification.from_pretrained(f'kge-{model_name}') return model, tokenizer # Example usage of a hypothetical function to demonstrate loading a pre-trained KGE model. ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值