Python深度学习读书笔记(八)(RNN&LSTM和双向LSTM优化IMDB)

循环神经网络RNN:遍历所有序列元素,并保存一个状态,其中包含已查看和内容相关的信息。实际上是一类具有内部环的神经网络。重复使用前一次迭代的计算结果。

前馈网络:将所有待处理数据转换为一个大向量,然后一次性处理。

SimpleRNN能够像其他Keras层一样处理序列批量。可以在两种模式下运行:1.返回每个时间步连续输出的完整序列(batch_size,timesteps,output_features)的三维张量;2.只返回每个输入序列的最终输出(batch_size,output_features)的二维张量,  模式由return_sequences控制(True:1;False:2)

由于存在梯度消失问题,SimpleRNN无法学到长期依赖。SimpleRNN过于简化,没有实用价值。

 

#RNN循环神经网络处理IMDB评论分类
from keras.datasets import imdb
from keras.preprocessing import sequence
#作为特征的单词个数
max_feature=10000
#500个单词后截断文本
maxlen=500
batch_size=32

(input_train,y_train),(input_test,y_test)=imdb.load_data(num_words=max_feature)
print(len
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值