和之前比较不一样的是我们还要做 compile 才正式把我们的神经网路建好。你可以发现我们还需要做几件事:
1.决定使用的 loss function, 一般是 mse
2.决定 optimizer, 我们用标准的 SGD
3.设 learning rate
4.为了一边训练一边看到结果, 我们加设 metrics=['accuracy']
本行基本上和我们的神经网路功能没有什么关系。
model.compile(loss='mse', optimizer=SGD(lr=0.1), metrics=['accuracy'])
檢視我們的神經網路
我们可以检视我们神经网路的架构, 可以确认一下是不是和我们想像的一样。
看 model 的 summary
model.summary()
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
dense_1 (Dense) (None, 500) 392500
_________________________________________________________________
activation_1 (Activation) (None, 500) 0
_________________________________________________________________
dense_2 (Dense) (None, 500) 250500
_________________________________________________________________
activation_2 (Activation) (None, 500) 0
_________________________________________________________________
dense_3 (Dense) (None, 10) 5010
_________________________________________________________________
activation_3 (Activation) (None, 10) 0
====&#