原文地址:http://blog.youkuaiyun.com/qq_29133371/article/details/51867856
随着神经网络层数的增加,会出现梯度消失或者梯度爆炸的问题,下面细说下问什么会出现:
起初的学习率固定。
下面来看几组通过增加隐藏层层数后的学习率变化图:
本文探讨了神经网络中随着层数增加而出现的梯度消失或梯度爆炸问题,并通过图表展示了隐藏层层数增加时学习率的变化。
原文地址:http://blog.youkuaiyun.com/qq_29133371/article/details/51867856
随着神经网络层数的增加,会出现梯度消失或者梯度爆炸的问题,下面细说下问什么会出现:
起初的学习率固定。
下面来看几组通过增加隐藏层层数后的学习率变化图:
552

被折叠的 条评论
为什么被折叠?