【论文解读】(2020-EMNLP)Adaptive Attentional Network for Few-Shot Knowledge Graph Completion
摘要
最近相关研究的重点为通过学习实体的静态表示方法,而忽略他们的动态属性。
本文通过自适应注意力网络:
- 实体由自适应邻居编码器建模,来识别他们面向任务的角色
- 引用由自适应查询感知聚合器建模,来区分他们的贡献
介绍
解决小样本知识图谱补全问题发展:
(2018)GMatching提出尾实体预测的解决方法,为了改进引用的语义表示,利用局部邻居增强实体嵌入(平均贡献)
(2020)FSRL 也是为了改进引用的语义表示,利用局部邻居增强实体嵌入(注意力机制分配不同权重)
但是权重并不会在所有任务关系中发生变化,所以这两个都是为邻居分配静态权重,在涉及不同的任务关系时产生静态实体表示,但我们更应该使用动态权重这样更符合实际效果。
对于实体可以是多义的,关系也可以是多义的。因此,引用三元组还可以对特定查询作出不同的贡献。就是说对于支持集中的不同三元组要有侧重的选择。
所以针对这种情况我们采用FAAN(自适应网络小样本知识图谱补全):
- 给定一个任务关系对于的支持集和查询集
- 给定一个自适应注意邻居编码器(单跳)对实体进行编码
- 为了增强实体表示,采用Transformer块的的堆栈作为参考/查询三元组,来捕获关系的多义
- FAAN通过自适应地聚合引用,得到一个通用的引用表示,进一步区分它们对不同查询的贡献

这篇论文提出了一种名为FAAN的自适应注意力网络,用于解决小样本知识图谱补全问题。FAAN通过自适应邻居编码器和Transformer编码器,动态地捕捉实体和关系的多义性,使得实体和引用表示能够适应不同的任务和查询。实验结果显示,FAAN在多个基准数据集上取得了新的最优结果,证明了其在处理动态属性上的有效性。
最低0.47元/天 解锁文章
1276





