【论文笔记】文本分类(text classification)论文整理

本文介绍两种文本向量表示方法:一种是通过word2vec改进的模型,用于训练句子、段落、文档的向量;另一种是层次注意力网络,利用GRU及注意力机制对文档进行编码,用于文本分类。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Distributed Representations of Sentences and Documents

这篇文章借鉴了word2vec的方法来训练长文本向量,如句子,段落,文档。首先随机初始化文本向量和文本中词的词向量,利用skip-gram和CBOW模型(在文中称为PV_DM和PV_DBOW模型)一起训练词向量和文本向量。

论文链接:https://cs.stanford.edu/~quocle/paragraph_vector.pdf

PV-DM:

PV-Dbow:

最后将两个模型训练得到的文本向量结合作为最终的文本向量,利用文本向量可继续做更高级的任务,如文本分类,情感分析等。



HierarchicalAttention Networks for Document Classification

论文链接:https://www.cs.cmu.edu/%7Ediyiy/docs/naacl16.pdf

    本文提出了层次注意力网络,该模型使用GRU对词语和句子分别进行编码,分为word encoder和sentence encoder,两个encoder拥有各自的attention model。

Word encoder:首先采用双向GRU对每个句子内的词语进行编码,连接两个GRU的最后一个时间步的隐层向量作为每个词语的向量表示,初始化一个上下文向量,通过计算上下文向量和每个词语的匹配度来得到每个词语的attention值,利用attention值得到句子内所有单词向量的加权和,就是最终该句子的向量表示,GRU、上下文向量、匹配函数的参数都会在训练中得到更新,

Sentence encoder:在得到各个句子的编码后采用相同的attention机制得到各句子向量的加权和,得到文档的向量表示,将该向量输入全连接层做文本分类,训练更新参数。



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值