Hierarchical Attention Networks for Document Classification论文阅读笔记

这篇博客介绍了Hierarchical Attention Networks如何提升文档分类的准确性。通过四个层次的网络结构,模型能对单词和句子赋予不同的权重,关注文档中更重要的部分。实验表明,这种方法在多个数据集上的分类效果优于传统的线性方法、SVM和神经网络模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

Hierarchical Attention Networks for Document Classification

(ACL2016)

 

动机

在分类任务中,句子中包含的每个词语相对于分类任务的重要性并不一样,比如在IMDB影评数据集中, like, amazing, terrible 这样的词语更能够决定句子的情感。一篇document也由多个句子组成,在篇章级别的分类时,每个句子的重要性也不相同。所以作者提出一种使用self-attention的层次模型来给单词或者句子赋予权重,以提升分类的准确性。

 

模型

网络包含四个层次:

1、word sequence layer

2、word-attention layer

3、sentence sequence layer

4、sentence-attention layer

 

编码层

包括word sequence layer,sentence sequence layer,其作用分别是对句子和篇章编码,直接使用BI-GRU实现。

 

注意力机制

该模型与上次所说的层级门结构篇章情感分类很相似,不同之处在于有了uw(词语级别的context vector)和us(句子级别的context vector), 利用它们产生attention value, 就可得出每个词语或句子的任务相关程度。

本文中self-attention的实现方式:

把每一个句子用双向GRU进行表示,再把句子中的每个词语的隐层向量表示(hit)经过如下变换实现self-attention:

 

式1:把某个词的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值