【Deep Learning学习笔记】Dynamic Auto-Encoders for Semantic Indexing_Mirowski_NIPS2010

本文介绍了一种利用深度堆叠自编码器进行文本表示的方法,该方法通过降维提高文本分类和信息检索效率。相较于传统LDA方法,深度自编码器在保持较低困惑度的同时实现了更优的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

发表于NIPS2010 workshop on deep learning的一篇文章,看得半懂。


主要内容:

是针对文本表示的一种方法。文本表示可以进一步应用在文本分类和信息检索上面。通常,一篇文章表示为V大小的一个向量,|V|是词表的大小。传统的方法,向量中每个值是tf/idf计算得到的权重。不过|V|比较大的时候,对于文本分类和信息检索来讲,时空复杂度都比较大。这时候需要对|V|进行降维。通常的方法是LDA系列的方法,将文章表示成若干个topic上面的分布。不过实验效果并不好。本文作者用deep stack auto-encoders来做。


具体做法:

构建deep stack auto-encoders。输入还是bag of words想法,即用|V|的词语向量来做。向量的每个维度是词表中的词语,取值采用了归一化的词语在文章中的出现次数,对于没有出现在文章中的词语,采用了类似ngram模型中的加法平滑,也给一个很小的数值。在这种输入的情况下,做auto-encoders,来训练神经网络。隐含层的维数要远小于|V|,从而达到降维的目的。在auto-encoders的基础上,在训练分类器g,以配合实际应用,如:文本分类。

注意,这时候,每个输入就是 一篇文章(所形成的|V|维向量),输入的顺序是随机的,即在文章集合中随机游走。另外,auto-encoders的能量函数还可以再加上网络本身权重的L1或者L2范式。


用训练好的神经网络来计算test corpus中文章的迷惑度。

这个看的不是太懂。感觉大概是这样的过程:把test corpus中的文章,先表示成|V|的向量形式,然后用训练好的deep stack auto-encoders进行encode和decode,而decode的结果作为这篇文章在整个词语集合V上的词语概率分布(需要加入softmax层),在这个分布上,就可以计算文章的迷惑度了。

在实验中,这种计算出来的迷惑度比LDA(用相似过程)计算出来的迷惑度要小,所以性能要高。


在实验中,还用股市预测来验证auto-encoders,即分析股市相关新闻的倾向性,从而判断股票走向。写的不多,没看懂具体怎么做的。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值