TSA任务介绍
目标情感分析任务(Targeted Sentiment Analysis, TSA)旨在提取目标实体并对其进行情感分类。因此可以理解为命名实体识别(NER)和情感分析(SA)两个任务的联合学习。例如,给出一句“ESPN调查显示迈克尔乔丹是最伟大的篮球运动员”,检测目标是ESPN和迈克尔乔丹,他们的情绪类别分别为中性和正面。最近的一些工作试图联合学习这两项任务,看成序列标注问题,其中B/I/O表示目标的边界,Positive/Neutral/Negative标签表示情感分类 (Klinger and Cimiano, 2013; Yang and Cardie, 2013)。随着词嵌入(word embedding)引入NLP领域,多种神经网络模型被用来处理序列标注问题,有人通过词嵌入来丰富特征并训练神经网络模型来解决TSA问题,这是当前较为流行的方法。但是在长距离依赖性和字符级特征角度来说,以上方法并没有充分考虑。因此下面介绍一个来自EMNLP 2018的方法---hierarchical multi-layer bidi- rectional gated recurrent units(HMBi-GRU)。
HMBi-GRU
这个方法考虑了word和character两个层面的embedding特征,来探索字符级特征和高级语义特征,从而建立二者之间的长距离依赖。除了特征之外,此方法充分利用了实体和情感之间的边界信息:目标的边界信息(B,I)标签和情感标签是一样的。例如上面的例子中,Michael Jordon的目标标签和情感标签是“B-Person,I-Person”和“B-Positive,I-Positive”,通过这种方式,模型可以在预测情绪标签时了解目标边界信息。
下面来详细介绍这个模型,对于GRU不了解的可以按照RNN来理解,只是内部门控有差异。
假设一个句子由n个单词[w1,w2,...,wn]组成。 对于每个单词,由li字符组成[c1,c2,...,cli],li是wi的长度。我们将句子表示为字嵌入矩阵W = [E1,E2,...,En]∈Rn×dw。 类似地,单词wi表示为字符嵌入的矩阵Ci∈Rli×dc,dw和dc分别表示字嵌入

本文介绍了目标情感分析(TSA)任务,它结合了命名实体识别(NER)和情感分析(SA)。文章重点讲解了HMBi-GRU模型,该模型利用字符和单词级别的嵌入,通过多层次双向GRU处理长距离依赖,同时考虑实体和情感的边界信息。实验表明,这种结构有助于学习高级抽象特征,提高TSA任务的性能。
最低0.47元/天 解锁文章
334

被折叠的 条评论
为什么被折叠?



