Gradient Descent梯度下降
实际上你要用一个Gradient Descent的方法来train一个neural network的话你应该要怎么做?
到底实际上在train neural network的时候Back propagation这个algorithm到底是怎么运作的?这个Back propagation是怎么样 neural network training比较有效率的?
---------------------------------------------------------------------------------------------
Gradient Descent这个方法就是:假设你的network有一大堆参数,一堆w一堆b,先选择一个初始的参数然后计算这个
对你的loss function的Gradient即
,也就是计算每一个network