《Deep Learning for Aspect-Based Sentiment Analysis》阅读笔记

本文介绍了一种用于方面级情感分析的双模型方法,包括用于识别方面的AspectModel和用于情感极性分析的SentimentModel。AspectModel通过两层神经网络输出19种方面的概率分布,而SentimentModel则采用CNN进行句子级的情感分析。最终,结合两种模型实现更精准的情感倾向分析。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、Model

这篇文章采用两部分进行方面级情感分析,一个部分用来寻找 EA对;一个用来进行情感极性的分析

1、aspect model

两层神经网络,全连接+softmax ,最后的输出是19种方面的概率分布值。在进行实验前,先做的处理是对方面个数进行降维,对于出现频率较少的实体直接标记为other。

2、sentiment model

使用递归神经网络进行情感分析较为合适。因为现在的消极表达,更倾向于将积极词语否定来表达,而不是仅仅使用否定词进行情感态度的表达。但是并未对输入数据在递归树的节点上面进行标注,所以不适合RNTN的输入数据的表达。本文选用的是CNN,因为它的输入只需要在句子层面。

3、aspect based sentiment model

利用CNN 进行句子级的分类效果较好,但是当一个句子中包含多种情感极性时,效果就会下降。CNN的结果受句子的向量维度影响较大。如果在所有的维度进行一个降维,那最大池化层的作用将会被改变。由此得到的启发是,将aspect和sentiment结合起来。而对于对词向量维数的缩减,则根据对于给定的aspect的维度进行调整。

一个句子首先输入到aspect model里面,然后输出top-k个aspect;利用Stanford corenlp得到解析树。没两个词之间的距离都使用解析树进行计算

 

 

 

Bert是一种在自然语言处理中被广泛使用的模型,其在各种任务中表现出了出色的性能。然而,对于方面级情感分析,Bert并不直接适用。因此,需要对Bert进行利用,并通过修改和扩展来适应这一任务。 端到端(end-to-end)的方面级情感分析是指通过一个模型直接从文本中提取方面和情感信息。为了利用Bert进行端到端的方面级情感分析,首先需要对数据进行预处理,并将其转换成Bert模型所接受的输入格式。这包括将文本分段、添加特殊标记以及填充序列等操作。 在Bert模型的基础上,需要添加相关的层来实现方面级情感分析。一种常见的方法是利用注意力机制来捕获方面词与其他词之间的关系。通过计算不同词之间的注意力权重,可以将方面词的相关信息传递给其他词,从而更好地理解整个文本。另外,也可以添加一些分类层来预测每个方面的情感。 为了更好地利用Bert,还可以使用领域特定的语料库来进行预训练。通过在大规模的语料库上进行预训练,模型可以更好地理解特定领域的文本,并提升方面级情感分析的性能。 此外,还可以通过调整Bert模型的超参数来进一步改善性能。例如,可以调整学习率、批大小和训练周期等超参数,以获得更好的结果。 总之,“exploiting bert for end-to-end aspect-based sentiment analysis”意味着通过对Bert进行修改和扩展,将其应用于端到端的方面级情感分析任务中,以提升模型的性能和效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值