一、用numpy实现两层神经网络
一个全连接的RELU神经网络,一个隐藏层,为了简单起见不用bais。作用是从x预测y。
Loss 函数为:
假设输入为x,所以第一层的输出为,然后经过RELU激活函数,得到的结果为h_relu。当时不太清楚为什么要用激活函数,查了一下感觉这篇博客讲的挺好。链接:https://www.cnblogs.com/ya-qiang/p/9258714.html
一个全连接的RELU神经网络,一个隐藏层,为了简单起见不用bais。作用是从x预测y。
Loss 函数为:
假设输入为x,所以第一层的输出为,然后经过RELU激活函数,得到的结果为h_relu。当时不太清楚为什么要用激活函数,查了一下感觉这篇博客讲的挺好。链接:https://www.cnblogs.com/ya-qiang/p/9258714.html