读论文《Recurrent neural network based language model 》

本文深入探讨了如何使用循环神经网络(RNN)构建语言模型,替代传统的n-gram上下文窗口。作者阐述了RNN如何存储历史信息,并分析了其隐藏层在预测下一个单词时的作用。此外,还提出了对RNN表达能力、隐藏层语义以及词嵌入质量的思考,并讨论了如何结合LSTM改进神经网络语言模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

读论文《Recurrent neural network based language model 》

标签(空格分隔): 论文


introduce

本文将循环神经网络RNN引入了神经网络语言模型,用RNN对历史信息的存储代替以n为窗口的上下文。

作者将语言模型中的隐藏层作为状态存储单元,以当前单词的词嵌入和上一状态的叠加作为输入,输出对下一个单词的预测。

method

本文的网络结构只是在NNLM的基础上将上一次的隐藏层与当前单词叠加作为输入。由于使用了RNN使用不行要再使用大小为n的上下文窗口。网络结构如下:

神经网络各层计算公式如下:

其中f()为sigmoil函数,g()为softmax函数

作者以下列方式对低频词进行处理

my view

1.RNN是时间维度上历史信息的共享,但只有一个简单的隐藏层,能表达丰富多样的历史信息吗?
2.RNN的隐藏层是否可以看作语言空间里面当前的语义状态向量?是否可以用RNN和词嵌入构造段落或文本的语义?
3.如何将LSTM更好的用到神经网络语言模型。
4.本文的RNNLM主要是做语言模型,那它的词嵌入的质量怎么样,因为所有的词嵌入都是基于全部历史信息的,会不会其中单词的词嵌入

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值