Keras搭建各种神经网络
- Regression
- Classifier
- CNN
- RNN_classifier
- RNN_LSTM_Regression
1.regression
这篇博文的数据不是,自己随意生成的就是用库自带的MNISIT。
回归是自己生成的数据进行训练的。
数据生成的代码:
import numpy as np
np.random.seed(1337) # for reproducibility
from keras.models import Sequential
from keras.layers import Dense
import matplotlib.pyplot as plt # 可视化模块
# create some data
X = np.linspace(-1, 1, 200)
np.random.shuffle(X) # randomize the data
Y = 0.5 * X + 2 + np.random.normal(0, 0.05, (200, ))
# plot data
plt.scatter(X, Y)
plt.show()
X_train, Y_train = X[:160], Y[:160] # train 前 160 data points
X_test, Y_test = X[160:], Y[160:] # test 后 40 data points
a.用 Sequential() 建立 model, 再用 model.add 添加神经层,添加的是 Dense 全连接神经层。
参数有两个,一个是输入数据和输出数据的维度,本代码的例子中 x 和 y 是一维的。
b.激活神经网络,model.compile上一步只是定义模型。(代码参数中,误差函数用的是 mse 均方误差;优化器用的是 sgd 随机梯度下降法。)
c.训练, 用 model.train_on_batch 一批一批的训练 X_train, Y_train。默认的返回值是 cost,
d.评估模型。model.evaluate,输入测试集的x和y, 输出 cost,weights 和 biases。其中 weights 和 biases 是取在模型的第一层 model.layers[0] 学习到的参数。
剩余代码如下:
#build a neural network from the 1st layer to the last layer
model = Sequential()
model.add(Dense(output_dim = 1, input_dim= 1))
#choose loss function and optimizing method
model.compile(loss='mse', optimizer='sgd') #mse二次方误差, sgd乱序批量
#training
print('Training -----------')
for step in range(301):
cost = model.train_on_batch(X_train, Y_train)
if step % 100 == 0:
print('train cost', cost)
#test
print('\nTest -----------')
cost = model.evaluate(X_test, Y_test, batch_size= 40)
W, b = model.layers[0].get_weights()
print('test cost', cost)
#plotting the prediction
Y_pred = model.predict(X_test)
plt.scatter(X_test, Y_test)
plt.plot(X_test, Y_pred)
plt.show()
是看着莫凡的视频学习的