动手学深度学习58 深层循环神经网络

1. 深度循环神经网络

序列变长不是深度。 多加几个隐藏层。
在这里插入图片描述

在这里插入图片描述
多加隐藏层,和MLP没区别
在这里插入图片描述
右走:下一个时间步

在这里插入图片描述
在这里插入图片描述

代码

rnn不会用特别深的网络。深度网络在模型复杂度上更好,overfitting上更多。rnn一般用2层。

import torch
from torch import nn
from d2l import torch as d2l

batch_size, num_steps = 32, 35
train_iter, vocab = load_data_time_machine(batch_size, num_steps)

vocab_size, num_hiddens, num_layers = len(vocab), 256, 2
num_inputs = vocab_size
device = d2l.try_gpu()
lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers)
model = RNNModel(lstm_layer, len(vocab))
model = model.to(device)

num_epochs, lr = 500, 2
train_ch8(model, train_iter, vocab, lr*1.0, num_epochs, device)

困惑度 1.0, 234109.9 词元/秒 cuda:0
time travelleryou can show black is white by argument said filby
travelleryou can show black is white by argument said filby

在这里插入图片描述

QA

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/38c9b870dbb44ca58499e5912d1b34df.png
14 一个个的隐藏层
在这里插入图片描述
15 文本翻译很成熟,不会再做很多工作。
16 书上有讲原理
17 是的。每一层都带了初始的weight
18 一般不会自己改hidden_size 不会用很深的网络,两层。
在这里插入图片描述
H:上一层的输出作为输出,又作为本层下一个时刻的输入和下一层的输入

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值