Pytorch中RNN参数解释

本文详细解析了RNN网络的基本结构及关键参数设置,包括input_size、hidden_size、dropout和num_layers等,并介绍了如何进行前向传播,以及output和hn的具体含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

其实构建rnn的代码十分简单,但是实际上看了下csdn以及官方tutorial的解释都不是很详细,说的意思也不能够让人理解,让大家可能会造成一定误解,因此这里对rnn的参数做一个详细的解释:

self.encoder = nn.RNN(input_size=300,hidden_size=128,dropout=0.5)

在这句代码当中:

  • input_size:表示输入句子但当中单词的维度,比如你将一个单词编码为100维度的one-hot 向量,那么这里应该使用input_size=100
  • hidden_size:表示每一个rnn神经单位向量(每一个隐匿层)的向量长度,多个rnn神经网络隐匿层就形成了我们的rnn
  • dropout:dropout的概率大小
  • num_layers:有多少层rnn的网络,往上堆叠多少层rnn

以上是对rnn结构的构建,之后我们来进行对rnn前向转播:

output,hn = self.encoder(encoder_input,encoder_hidden)

 这句代码当中,其中:

encoder_input:一共需要输入三个维度,分别是【seq_len, batch,word_dim】

  • seq_len:句子的长度
  • batch:有多少个句子
  • word_dim:单词的维度

encoder_hidden:也是具备三个维度,分别是【num_layers,batch,hidden_size】

  • num_layes:一共有多少层rnn
  • batch:有多少个句子
  • hidden_size:表示每一个rnn神经单位向量(每一个隐匿层)的向量长度,多个rnn神经网络隐匿层就形成了我们的rnn

然后就是我们的输出解释了:

  • hn:RNN的最后一个隐含状态(最后一个隐匿层上方的输出,而不是右边,右边是output)
  • output:所有节点的hn集合(所有隐匿层都会有一个隐匿状态的输出,而这个output是所有隐匿层上方的一个集合)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值