很有意思的一篇paper。在众多Knowledge Graph Embedding (KGE) 的论文中通过问题设计和有意思的解决方式脱颖而出。
首先来看看问题设计。
一般的KGE model都是利用神经网络(大部分是GCN)做点(node)或者边(edge)的低维向量表示,将他们嵌入(embed)到一个低维向量空间的同时尽可能保持他的特征和性质。比如LINE、TransX系列、GraphSAGE、GCN等模型,通常是利用了图结构信息,让接近的边的表示尽可能相似,以此作为学习的目标。
但这篇paper着眼于multi-hop的embedding场景,用logic rule作为guidance进行学习。完美地结合了KGE models和logic rule所蕴含的逻辑信息。
其次,是问题的解决方式。
这篇paper使用了beta embedding来对点的存在与否进行建模,进行了一个相对严格的distribution的假设。其次,通过beta embedding这个伯努利分布的进阶版,能够很好地拟合logic rule的PSL。
从实验上来看也能吊打很多SOTA models,感觉很有意思,可以试一试。