小白循环神经网络RNN LSTM 参数数量 门单元 cell units timestep batch_size

本文介绍了RNN循环神经网络的结构,详细讲解了LSTM的参数计算,包括遗忘门、输入门、输出门和候选记忆细胞。通过实例展示了LSTM如何处理时间步长和批量大小,并探讨了不同门控结构的作用。同时,提到了LSTM相对于RNN的参数量增加以及在实际应用中的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

小白循环神经网络RNN LSTM 参数数量 门单元 cell units timestep batch_size

  • RNN循环神经网络 timestep batch_size
  • LSTM及参数计算
  • keras中若干个Cell例如LSTMCell
1.RNN循环神经网络

在这里插入图片描述

先来解释一下 batch_size timestep

在这里插入图片描述

样本数据:

小明爱学习

小王爱学习

小李爱学习

小花爱学习

通常样本数据会以(batch_size, time_step, embedding_size)送入模型,对应的可以是(4,5,100)

4表示批量送入也就是(小,小,小,小)第二批是(明,王,李,花)…

5表示时间步长,一句话共5个字

100表示词嵌入的维度

H t = ϕ ( X t W x h + H ( t − 1 ) W h h + b h ) H_t = \phi(X_tW_{xh}+H_(t-1)W_{hh}+b_h) Ht=ϕ(XtWxh+H(t1)Whh+bh)

X t X_t Xt输入 假设一次输入4个字符,那么Xt的维度是4*100

W x h W_{xh} Wxh 对应的矩阵大小是 100*hidden_size

X t W x h X_tW_{xh} XtWxh输出大小即为4*hidden_size 也就是说W将词嵌入转换成隐藏层大小

$H_{t-1} $ 也就是 4*hidden_size

W h h W_{hh} Whh

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值