
深度学习
chduan_10
这个作者很懒,什么都没留下…
展开
-
激活函数-Sigmoid,Tanh,ReLu,softplus,softmax
不管是传统的神经网络模型还是时下热门的深度学习,我们都可以在其中看到激活函数的影子。所谓激活函数,就是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。常见的激活函数包括Sigmoid、TanHyperbolic(tanh)、ReLu、 softplus以及softmax函数。这些函数有一个共同的特点那就是他们都是非线性的函数。那么我们为什么要在神经网络中引入非线性的激活函数呢?引用...转载 2018-07-03 20:08:59 · 1043 阅读 · 0 评论 -
深度学习基础之-梯度弥散和梯度爆炸及解决办法
梯度不稳定问题:深度神经网络中的梯度不稳定性,前面层中的梯度或会消失,或会爆炸。 原因:前面层上的梯度是来自于后面层上梯度的乘乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景,如梯度消失和梯度爆炸。 一、梯度消失问题 为了弄清楚为何会出现消失的梯度,来看看一个极简单的深度神经网络:每一层都只有一个单一的神经元。下图就是有三层隐藏层的神经网络: sigmoid函数的导数最大值...转载 2018-07-31 19:34:07 · 1191 阅读 · 0 评论