循环神经网络RNN 的架构-PyTorch

文章介绍了如何在PyTorch中定义和使用RNN层,包括输入_size、hidden_size和num_layers等参数的含义。示例代码展示了如何初始化一个2层RNN,并给出输入和输出的维度解释。此外,还提到了第一层RNN的模型参数,如输入-隐藏权重、隐藏-隐藏权重以及对应的偏置。

1层RNN长这样:

Pytorch的RNN的调用:

rnn_layer = nn.RNN(input_size=2, hidden_size=3, num_layers=2)

# input_size  :输入特征的维度,即下图中每一时刻Xt的输入长度,Xt=[x1,x2] ,长度为2
# hidden_size :隐藏层神经元个数,下图中hidden_size=3
# num_layers  :网络的层数,下图为2层(上下之间,不是左右之间,左右之间是同一层)

输入:

X = torch.rand(2, 1, 2)    # (时间步数, batchsize, 特征长度)
Y, h_new = rnn_layer(X, h)

# X第一个参数为时间步数,有几段Xt序列; 第二个为batchsize; 
#  第三个为特征长度,Xt的长度,对应input_size,Xt=[x1,x2]
# 输入还有一个h,对应下图h(t-1),一般为None
# 输出为y和h

抽象结构:

上图中,第一层的模型参数:

w1:input-hidden权重 [input_size,hidden_size]

w2:hidden-hidden权重 [hidden_size,hidden_size]

b1:input-hidden偏置 [hidden_size]

b2:hidden-hidden偏置 [hidden_size]

————————————————

版权声明:本文为优快云博主「不知语冰」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.youkuaiyun.com/qq_42800654/article/details/106625022

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值