利用自己搭建的DNN做简单预测。是上篇博文:《自编码实现深度神经网络》的后续部分。
调用上篇的函数如下:
def initialize_parameters_deep(layer_dims):
...
return parameters
def L_model_forward(X, parameters):
...
return AL, caches
def compute_cost(AL, Y):
...
return cost
def L_model_backward(AL, Y, caches):
...
return grads
def update_parameters(parameters, grads, learning_rate):
...
return parameters
定义一个预测函数,输出一个预测结果P
def

本文是《自编码实现深度神经网络》的后续,主要介绍如何使用自己搭建的DNN进行预测。通过调用上篇的函数,定义预测函数并应用梯度下降优化参数,最终得到的模型在测试集上的准确率达到了0.9856,相比浅层神经网络的0.72,显示出DNN在防止过拟合方面的优势。
最低0.47元/天 解锁文章
2882

被折叠的 条评论
为什么被折叠?



