读论文《Recurrent neural network based language model 》
标签(空格分隔): 论文
introduce
本文将循环神经网络RNN引入了神经网络语言模型,用RNN对历史信息的存储代替以n为窗口的上下文。
作者将语言模型中的隐藏层作为状态存储单元,以当前单词的词嵌入和上一状态的叠加作为输入,输出对下一个单词的预测。
method
本文的网络结构只是在NNLM的基础上将上一次的隐藏层与当前单词叠加作为输入。由于使用了RNN使用不行要再使用大小为n的上下文窗口。网络结构如下:
神经网络各层计算公式如下:
其中f()为sigmoil函数,g()为softmax函数
作者以下列方式对低频词进行处理
my view
1.RNN是时间维度上历史信息的共享,但只有一个简单的隐藏层,能表达丰富多样的历史信息吗?
2.RNN的隐藏层是否可以看作语言空间里面当前的语义状态向量?是否可以用RNN和词嵌入构造段落或文本的语义?
3.如何将LSTM更好的用到神经网络语言模型。
4.本文的RNNLM主要是做语言模型,那它的词嵌入的质量怎么样,因为所有的词嵌入都是基于全部历史信息的,会不会其中单词的词嵌入