基于RNN的自然语言处理与文本生成
1. 模型训练与架构
在时间序列预测中,有这样一个模型训练代码:
history = model.fit(X_train, Y_train, epochs=20,
validation_data=(X_valid, Y_valid))
这个顺序模型以一个显式的输入层开始(这比仅在第一层设置输入形状更简单),接着是一个使用“因果”填充的一维卷积层。这种填充方式确保卷积层在进行预测时不会窥探未来(相当于在输入的左侧填充适量的零并使用“有效”填充)。之后,添加了多对使用递增膨胀率(1、2、4、8,然后再次是1、2、4、8)的层。最后,添加输出层,即一个具有10个大小为1的滤波器且没有任何激活函数的卷积层。由于填充层的存在,每个卷积层输出的序列长度与输入序列相同,因此训练时使用的目标可以是完整的序列,无需裁剪或下采样。
该模型在时间序列预测方面表现出色,在WaveNet相关研究中,其在各种音频任务(包括文本转语音任务)中取得了最先进的性能,能够生成多种语言的极其逼真的语音,还能逐音频样本地生成音乐。
2. 练习问题
以下是一些与RNN相关的练习问题:
1. 请思考序列到序列RNN、序列到向量RNN和向量到序列RNN的应用场景。
2. RNN层的输入必须有多少个维度?每个维度代表什么?其输出呢?
3. 如果要构建深度序列到序列RNN,哪些RNN层应该将 return_sequences 设置为 Tr
超级会员免费看
订阅专栏 解锁全文
1123

被折叠的 条评论
为什么被折叠?



