基于情绪分析方向使用依赖信息加强注意力机制
原文题目: Using Dependency Information to Enhance AttentionMechanism for Aspect-based Sentiment Analysis
idea1:是否可以将情绪分析(分类)的研究应用到法条的选择中,通过其他算法将大概的案情相关法条缩减范围,通过情绪分析的方法将确定上述的几个法条是否可以在案情中使用.同理适用到其他对文本判定类别的应用之中.
本文是将attention机制应用到文本情绪分析中,即为ABSA.
aspect 指的是下文例子中的food和service等词,针对这些方面进行情感分析,可能是积极,消极,中立.
摘要:注意力机制已经被证实对ABSA(情绪分析)有效。最近出现许多研究针对于基于依赖关系实现注意力机制。然而,缺点在于依赖树必须先获得这棵树,而且存在受到误差传播的影响。因为发现注意力机制的计算是基于图去依赖分析,我们设计了一个基于多任务的新方法去转移对ABSA的依赖知识。分别针对ABSA训练了一个基于注意力的LSTM模型,针对依赖解析训练了一个基于图的模型.这个转移可以缓解因为训练数据不足造成的网络训练不足的问题.在semeval的2014餐馆笔记本一系列实验中表明我们的模型可以从依赖关系知识中获得可观的收益,并获得与具有复杂网络结构的最新模型相同的性能.
关键词:Aspect-based Sentiment Analysis, Multi-task Learning, DependencyParsing, Attention Mechanism
1.介绍
文本情感分析的重要性,在互联网时代,大量的自动评价应用是很有发展前景的.例子: For example, in the sentence“greatfood but the service was dreadful”, targets are food and service, and the correspondingsentiment polarities are positive and negative respectively.其中target是food和service.
attention机制对情感分析是很重要的,它可以强制模型去学习上下文文本与目标的关系.(存疑?).但是当句子很复杂,特别是当文本与目标之间差别巨大,传统的attention模型有能力限制.为了克服这个缺点,一些研究者用依赖关系去完整计算对长距离的特定的目标.在这些工作中,依赖树可以用于对传统机器学习模型和基于神经网络的模型提取关系特征,或建立递归神经网络方法中用于输入的特定递归结构.但是这些方法高度依赖于自动依赖解析器产生的输入依赖解析树,树可能有错误,因此遭受错误传播问题。
经过深层次的研究发现这个attention机制的计算实际上是基于图依赖分析的一部分.attention机制是去计算在句子中任何一个词与target之间的关系,当基于图依赖分析会计算出句子中任意两个词语之间的关系.所以从图依赖分析中获得的信息可以协助attention网络的训练!!! 在这篇论文中,我们以多任务学习的方式结合了一个基于attention的LSTM模型和一个基于图依赖分析的模型.我们通过一系列实验和对注意力机制改善的可视化演示了我们方法的有效性。
本文的主要贡献为:
- 第一个检测到注意力层计算是基于图的依赖分析的一部分的人。 因此,联合学习与基于图的依赖关系解析可以帮助培训注意层.
2.我们提出了一种基于方面的情感分析的通用方法,该方法可以转移依赖性知识以获得更好的与方面相关的表示。 该架构对所有基于LSTM的ABSA模型均有效
3.我们提出了一种有效的方法来增强注意力机制。 它无需使用额外的依赖解析器即可传输依赖关系的知识。 在预测阶段,可以节省大量的计算资源。
本文的其余部分的结构如下。 第2节介绍了有关基于方面的情感分析的文献。 提议的方法的总体设计在第3节中进行了描述。第4节介绍了实验设置和分析。 最后,第5节介绍了结论和未来的工作。
2.相关工作
2.1 基于方面的情感分析
基于方面的情感分析在文献中经常被认为是分类问题.传统的方法是基于一系列人工定义的特征做研究,但是该结果十分依赖人工的标注是否正确.而且特征的标注是一件是十分耗费人力的工作.
后续的工作中在以后的工作中,方法像许多其他NLP任务一样变成了基于神经网络的方法。 简而言之,其发展大致可分为三个阶段。 最初,将任务建模为句子分类问题。 假设某产品有怀疑,则ABSA任务实际上是一个3N分类问题,因为每个方面都与三个情感极性有关:积极,消极和中立。 第二阶段是递归神经网络。 提出了许多基于递归神经网络的树结构模型。 在最近阶段,大多数作品都基于基于方面的句子表示的思想,该句子生成针对特定方面的句子表示。 Wang等采用这种想法,并利用注意力机制来产生这样的表示。 德宏等 设计了一个交互式注意力网络(IAN),它使用两个注意力网络对目标和上下文进行交互建模。 唐等提出了一种名为“具有方面嵌入的门控卷积网络”的模型(GCAE),该模型使用方面信息通过CNN和门控机制控制句子的情感特征流。 同样,黄等将目标的合并结果视为应用于句子的额外卷积核。 也有研究者将ABSA任务视为一个问答问题,其中基于内存的网络起着主要作用.
2.2依赖性解析
依赖性分析在情感分析中也被广泛使用。 大多数方法从依赖树中获得直接或简短的依赖特征,以捕获句子中单词之间的关系。 Xinbo等在计算注意力权重以捕获确定目标的远程信息时,将依赖项嵌入作为附加输入。 铁二等将句子中每个依赖子树的情感极性视为隐藏变量。 考虑隐藏变量之间的相互作用来计算整个句子的极性。 Soujanya等人通过允许情感基于输入情感的依存关系从一个概念流到另一个概念.更好地理解句子中每个概念的语境作用。 但是它们都需要附加的依赖解析器,通常是斯坦福依赖解析器,并且受错误传播问题的影响。 而且,其解析过程也消耗了大量的计算资源.
3 模型
本文提出一个多任务学习模型去传递依赖性的知识给基于aspect情感分析模型. 3.1中展示基于attention的LSTM模型,3.2中为基于图依赖分析模型,3.3中为最后的多任务学习模型.
3.1 基于attention的LSTM模型
对于基于aspect的情感分析模型任务,基于attention的LSTM模型已经被证明了是有用的.它建立了一个指向性的LSTM层提取输入文本中每个词的上下文表示.之后,应用注意层来计算每个单词对aspect的贡献并获得最终的aspect相关表示,情感极性最终由softmax层计算.(对此段还是存在问题)
输入句子中给出n个词语 W s 1 W_{s1} Ws1, W s 2 W_{s2} Ws2