深度学习之自然语言处理(RNN)

前馈型神网络:指网络的传播方向是单向的,先将输入信号传给下一层(隐藏层),接收到信号的层也同样传给下一层,然后再传给下一层……像这样,信号仅在一个方向上传播。

存在问题:不能很好地处理时间序列数据(以下简称为“时序数据”)即单纯的前馈网络无法充分学习时序数据的性质。

所以需要引入RNN(循环神经网络)

1 概率和语言模型

1.1 概率视角下的word2vec

与之前不同的是,这里我们将上下文限定为左侧窗口。

CBOW 模型的学习旨在找到使式 (5 . 3) 表示的损失函数(确切地说,是整个语料库的损失函数之和)最小的权重参数。

1.2 语言模型

语言模型 language model )给出了单词序列发生的概率。
比如,对于“ you say goodbye ”这一单词序列,语言模型给出高概率(比如 0 . 092 );对于“ you say good die ”这一单词序列,模型则给出低概率(比如 0 . 000 000 000 003 2 )。

1.3 将CBOW模型用作语言模型?

马尔可夫性是指未来的状态仅依存于当前状态。此外,当某个事件的概率仅取决于其前面的 N
事件时,称为“ N 阶马尔可夫链”。 若下一个单词仅取决 于前面 2 个单词的模型,称为“ 2 阶马尔可夫链”。
CBOW模型存在上下文大小问题以及忽略上下文单词顺序问题。

2 RNN

2.1 循环的神经网络

随着数据的循环,信息不断被更新。 通过数据的循环, RNN 一边记住过去的数据,一边更新到最新 的数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值