End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures论文笔记

本文是对ACL2016论文《End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures》的笔记,探讨了如何使用LSTM在序列和树结构上进行端到端的关系抽取,结合依存路径信息。文中介绍了端到端模型、联合模型的概念,并分析了最短依存路径在关系分类中的优势。模型通过Bi-LSTM对句子编码,构建实体间的SDP进行关系分类,但未详细说明依存关系在LSTM中的实现细节和向量训练方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ACL2016论文End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures中提出了一种用于NER和NRC的端到端的联合模型,并在模型中融入了依存路径信息。这篇论文里涉及到的很多知识之前没关注到,在这里记录下来。

1、端到端(end to end)

没有找到官方解释,可以参考知乎里的问题,个人理解:端到端指的是输入是原始数据,输出是最后的结果,原来输入端不是直接的原始数据,而是在原始数据中提取的特征就不是端到端模型。这有什么好处呢,如果分阶段学习的话,第一阶段的最优解不能保证第二阶段的问题达到最优。end-to-end把他们堆在一起来优化,确保最后阶段的解达到最优。

2、联合模型(joint model)

以信息抽取里的命名实体识别和关系抽取为例,一般会先做NER,然后根据抽取出来的实体来做关系抽取,这样会有几个问题:a.实体识别的误差很大程度上会影响关系抽取的准确率;b.NER和RC并不是完全独立的任务,很多情况下相辅相成,可以利用这一点提高两个任务的效果。于是就有了联合模型,联合模型一般有两种形式:参数共享/标注策略,这里只讨论参数共享的情况。对于a,这点类似于端到端,将NER和RC放在一个模型里,一定程度上缓解了a问题;对于b,联合模型的共享参数可以看作是信息的共享,于是将两个任务联立起来了。

3、依存路径

“依存路径“这个词应该属于句法分析的范畴,依存句法分析通过分析语言单位内成分之间的依存关系解释其句法结构,主张句子中核心动词是支配其他成分的中心成分。而它本身却不受其他任何成分的支配,所有受支配成分都以某种关系从属于支配者。

约束条件:

(1)一个句子中只有一个成分是独立的 
(2)句子的其他成分都从属于某一成分 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值