论文阅读 | NIPS‘20 | Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs

Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs

很有意思的一篇paper。在众多Knowledge Graph Embedding (KGE) 的论文中通过问题设计和有意思的解决方式脱颖而出。

首先来看看问题设计。

一般的KGE model都是利用神经网络(大部分是GCN)做点(node)或者边(edge)的低维向量表示,将他们嵌入(embed)到一个低维向量空间的同时尽可能保持他的特征和性质。比如LINE、TransX系列、GraphSAGE、GCN等模型,通常是利用了图结构信息,让接近的边的表示尽可能相似,以此作为学习的目标。

但这篇paper着眼于multi-hop的embedding场景,用logic rule作为guidance进行学习。完美地结合了KGE models和logic rule所蕴含的逻辑信息。

其次,是问题的解决方式。

这篇paper使用了beta embedding来对点的存在与否进行建模,进行了一个相对严格的distribution的假设。其次,通过beta embedding这个伯努利分布的进阶版,能够很好地拟合logic rule的PSL。

从实验上来看也能吊打很多SOTA models,感觉很有意思,可以试一试。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值