循环神经网络RNN:遍历所有序列元素,并保存一个状态,其中包含已查看和内容相关的信息。实际上是一类具有内部环的神经网络。重复使用前一次迭代的计算结果。
前馈网络:将所有待处理数据转换为一个大向量,然后一次性处理。
SimpleRNN能够像其他Keras层一样处理序列批量。可以在两种模式下运行:1.返回每个时间步连续输出的完整序列(batch_size,timesteps,output_features)的三维张量;2.只返回每个输入序列的最终输出(batch_size,output_features)的二维张量, 模式由return_sequences控制(True:1;False:2)
由于存在梯度消失问题,SimpleRNN无法学到长期依赖。SimpleRNN过于简化,没有实用价值。
#RNN循环神经网络处理IMDB评论分类
from keras.datasets import imdb
from keras.preprocessing import sequence
#作为特征的单词个数
max_feature=10000
#500个单词后截断文本
maxlen=500
batch_size=32
(input_train,y_train),(input_test,y_test)=imdb.load_data(num_words=max_feature)
print(len