[EMNLP2017]Context-Aware Representations for Knowledge Base Relation Extraction(short paper))

这里写图片描述
在上面给出的例子(1)中,任务是判断e1和e2的关系,在进行判断的时候,借助了e1和e3的关系. e1和e3的关系是在判断e1和e2之前已经识别出来.那么又引出了一个问题:如何表示e1和e3的关系?
这里写图片描述

图1给出的是实体e1和e2实体之间的关系判定,由下至上看此图,输入有两个序列(1)句子序列x1, x2, …, xn
(2)实体标签序列:标签B-, I-, L-, O, U-, 代表具体的实体类型,因为要判断e1和e2的关系,此时其他实体的标签全都打成O

在LSTM layer层的最后一个输出os就表示了实体e1和e2以及它们的关系

Figure2 就是利用其他关系判断两个目标实体之间的关系:
假设目前已经识别出的关系有两个r1r2, 以及目前需要判定的目标实体e1和e2的关系rs,  三个关系的embedding表示o1, o2以及os就是由Figure 1的LSTM Layer层的最后一个输出得到.经由attention判断o1, o2哪个对os影响程度,利用公式:
这里写图片描述

最后osoc串接后经由前馈神经网络得到关系:
这里写图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值