深度学习:CNN RNN DNN 区别 卷积层或是LSTM单元

本文探讨了神经网络中梯度消失与梯度爆炸的根本原因,指出网络层数过多及S型激活函数(如sigmoid、tanh)是导致这些问题的主要因素。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

梯度消失

http://www.cnblogs.com/tsiangleo/p/6151560.html

根本的问题其实并非是消失的梯度问题或者激增的梯度问题,而是在前面的层上的梯度是来自后面的层上项的乘积。所以神经网络非常不稳定。唯一可能的情况是以上的连续乘积刚好平衡大约等于1,但是这种几率非常小。

所以只要是sigmoid函数的神经网络都会造成梯度更新的时候极其不稳定,产生梯度消失或者激增问题。

全连接的DNN

http://blog.youkuaiyun.com/eddy_zheng/article/details/50763648

http://blog.youkuaiyun.com/Dark_Scope/article/details/47056361

网络层数太多是导致梯度消失或者梯度爆炸的直接原因, 使用S型激活函数(如:sigmoid函数,tanh函数)会导致梯度消失问题,初始权重设置太大会导致梯度爆炸



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值