论文阅读:A semantically enhanced dual encoder for aspectsentiment triplet extraction

目录

一、背景

二、创新点

三、模型框架

1 Encoder

Basic context encoder

Particular context encoder

2 Encoding interaction module

3 Boundary-driven Table-filling layer

4 解码和损失函数

一、背景

原来的方法包括:(1)pipline方法,例如两阶段模型,在第一阶段从句子中提取aspect、opinion、sentiment;在第二阶段组成合适的triplet。存在的问题是pipline方法破坏了triplet元素之间的关系,没办法捕获他们之间的交互。(2)joint model。能用一个统一的方式捕获子任务之间的交互,包含 table-filling或者span-based策略。

存在的问题:原来的pipline或者端到端的方法,侧重于创建不同的提取方案来解决ASTE,但是忽略了一个巧妙设计的编码器来增强高阶语义的捕获。一个有效的编码器可以考虑特定的语义,包括语法依赖关系、词性标签和位置信息等隐藏特征。句子中的高阶信息可以通过标记之间的附加语义来表示

二、创新点

为了利用高阶语义的优势,我们提出了一个语义增强的双编码器框架。我们构建了一个BERT编码器来编码句子的基本语义,并使用了一个增强了三域嵌入的Bi-LSTM编码器来提取特定的语义,该编码器可以区分不同语境下的词性和语义差异。

对于得到的语义,采用GCN基于依赖树对结构特征进行细化。编码交互模块迭代地从这两个角度融合文本的语义。

与当前基于管道和跨度的方法不同,我们的方法基于边界驱动的表填充(BDTF)提取情感三元组

(1)提出了一个语义增强的双编码器框架,包括两个不同的编码器。基于BERT的基本编码器捕获句子的基本语义,基于GCN和具有3域嵌入的Bi-LSTM的特定编码器从依赖树中挖掘上下文特定的语义;

(2)引入语义编码交互策略,迭代结合两个编码器学习到的语义信息,综合表达句子的语义,包括基本语境、特定评论语境、词性信息和依赖信息。

三、模型框架

1 Encoder

Basic context encoder

由于BERT使用子词拆分,因此获得的上下文特征h在维度上可能与原始句子长度不一致。为了解决这个问题,我们设计了一个Whitetokenizer,它在标记化过程中跟踪每个单词被分成子词。我们使用平均池对子词进行对齐,聚合它们的上下文特征以获得句子的对齐上下文语义hb。

Particular context encoder

首先为了准确地捕捉不同领域中单词的语义倾向,我们使用了两个查找表来初始化文本嵌入,一般的域嵌入表Eg∈R |v|×dg表示广泛上下文中单词的含义,而特定的域嵌入表Es∈R |v|×ds在特定于被分析评论的上下文中捕获它们。这里,|v|表示查找表中词汇表的大小。并且加入词性嵌入表。P = [pnoun, pverb, padj , padv, pothers]Ep ∈ R5×dp。经过三域嵌入层后,最终的句子表示为:

然后为了捕获句子的上下文特征,我们使用Bi-LSTM作为特定的编码器,该编码器以E为输入,采用门控和注意力机制获得上下文特征X

最后,建模语法信息。在依赖树上采用GCN,它学习评论的语法,并通过捕获单词之间的关联来增强当前的表示。在我们的实现中,Bi-LSTM的结果X作为初始状态。在相应的依赖树上执行多层图卷积操作,以获得语法增强的上下文表示hp。

2 Encoding interaction module

首先,将基本语义hb和特定语义hp输入到交互注意模块中,得到每个词各自的注意分数αb和αp;

为了与两种语义相互作用,增强表达,我们让注意力分数αb(αp)作用于相对的语义特征hp(hb),融合两种语义,同时通过自循环强化原有的语义特征。

引入了多层交互机制来进一步强化

我们选择第L层交互的结果(h^L)_b作为编码交互模块的输出,并将其输入到基于bdtf的三元组提取器中.

3 Boundary-driven Table-filling layer

aspect-opinion对表示为一个two-channel有界区域,由区域的左上角起始位置S[as,os]和右下角结束位置E[ae, oe]进行定位。在此基础上,将ASTE转化为多通道区域提取和分类任务

对于高维语义,我们构建了随机词之间的关系级表示rij

对于长度为n的句子,任意两个词之间的关系级表示rij∈Rd形成一个三维关系矩阵R∈R n×n×d,将其送入L层resne的CNN编码层中提取高维关系,

将最后一层CNN的输出结果RL作为提取的结果。

经过一个边界检测分类层,得到池化的潜在候选区域P,记录了预测的aspect-opinion pairs [S(as, os), E(ae, oe)] 和他们的情感S。

4 解码和损失函数

在解码中,一个区域分类器解码潜在的triples并且排除具有“无效”情感标签的候选对象。潜在三元组被分配两个标签,记录候选区域的开始和结束位置,潜在triplet区域的标签是(S[a1, o4], E[a3, o5], Positive)。

训练目标是最小化交叉熵损失,

Semantic Analysis with Context Models • Task1: Model the context of a frequent pattern Based on the Context Model… • Task2: Extract strongest context indicators • Task3: Extract representative transactions • Task4: Extract semantically similar patterns 使用上下文模型进行语义分析 • 任务1:建模频繁模式的上下文,基于上下文模型… • 任务2:提取最强的上下文指标 • 任务3:提取代表性交易数据 • 任务4:提取语义相似的模式 在数据挖掘和机器学习中,语义分析是一项重要的任务。使用上下文模型进行语义分析是一种常用的方法。其中,频繁模式挖掘是语义分析的一个重要应用领域。通过建模频繁模式的上下文,我们可以更好地理解这些模式所代表的含义和作用。 任务1:建模频繁模式的上下文,基于上下文模型。上下文模型是一种描述数据集中各个数据点之间关系的模型。通过建立上下文模型,我们可以确定频繁模式的上下文,并且可以帮助我们更好地理解这些模式所代表的含义和作用。 任务2:提取最强的上下文指标。在上下文模型中,我们可以使用各种指标来描述数据点之间的关系,例如相似度、距离和相关性等。通过提取最强的上下文指标,我们可以更好地理解频繁模式的上下文,并且可以帮助我们更好地理解这些模式所代表的含义和作用。 任务3:提取代表性交易数据。在频繁模式挖掘中,交易数据是指包含频繁模式的数据记录。通过提取代表性的交易数据,我们可以更好地理解频繁模式所代表的含义和作用,并且可以帮助我们更好地进行模式分析。 任务4:提取语义相似的模式。在频繁模式挖掘中,我们通常会发现多个频繁模式之间存在语义上的相似性。通过提取语义相似的模式,我们可以更好地理解数据集中的规律和关联性,并且可以帮助我们更好地进行模式分析。 综上所述,使用上下文模型进行语义分析是一种有效的方法,可以帮助我们更好地理解数据集中的规律和关联性,特别是在频繁模式挖掘中。任务1到任务4是使用上下文模型进行语义分析的关键步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值