注意力机制的命名实体识别

本文探讨了在原有的biLSTM-CRF模型基础上引入注意力机制的方法,通过借鉴《Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification》的思想,详细介绍了如何在LSTM输出层加入注意力,并最终应用于命名实体识别任务。

一、原有模型的架构

  biLSTM + CRF

二、对原有模型加入注意力机制

  LSTM输出层加入注意力,参考文章:《Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification》,该文章是用于文本实体关系分类的,其思想借用到本文

  细节:

    1)作者将前向和后向LSTM得到的特征,不是做拼接操作,而是元素点积

                  

    2)对该层结果加入注意力

                

    3)获得句子的整体表示

                  

    4)最后放入分类器中,用于分类

三、流程图

 

 

 四、移植到命名实体识别中

   未完待续

 

转载于:https://www.cnblogs.com/demo-deng/p/10139270.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值