吴恩达神经网络和深度学习-学习笔记-15-局部最优

在这里插入图片描述
左图为我们对于低维空间的想象,似乎局部最优广泛存在。梯度下降法或者某个算法可能困在一个局部最优中,而不会抵达全局最优。
但这些理解并不正确
事实上如果我们要创建一个神经网络,通常梯度为0的点并不是左图中的局部最优点。实际上成本函数的零梯度点通常是鞍点
因为一个具有高维空间的函数,如果梯度为0,那么在每个方向,它可能是凸函数也可能是凹函数。如果在20000维空间中想要得到局部最优,发生概率为2-20000,是一个非常非常小的值。明显遇到鞍点的概率要大得多。

我们对于低维空间的大部分直觉,并不能应用到高维空间中
在这里插入图片描述
第一:我们不太可能困在局部最优值中。
第二:平稳段会减慢学习速度(平缓段导数长时间趋于0)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值