梯度消失和梯度爆炸的数学原理及解决方案

本文探讨了深度网络训练时的梯度消失和梯度爆炸问题,它们源于反向传播过程中梯度的指数级增减。激活函数的选择,如sigmoid,会加剧梯度消失。解决方案包括预训练、梯度裁剪、权重正则化、使用ReLU激活函数、批量归一化、残差网络和LSTM的门控机制。

博文原地址:梯度消失和梯度爆炸的数学原理及解决方案,搬来优快云

欢迎关注我的公众号,微信搜 algorithm_Tian 或者扫下面的二维码~

现在保持每周更新的频率,内容都是机器学习相关内容和读一些论文的笔记,欢迎一起讨论学习~


目录

1.前言

2.深度网络对梯度的影响

3.激活函数对梯度的影响

4.一些解决方案


1.前言

很久没看文章了,但是感觉再不写点什么公众号都要被自己遗忘了。随便写一下神经网络的一些小知识吧,感觉很多大佬把这种小知识写的非常深入浅出,很景仰很佩服。这篇文章主要还是参考了别人的技术博客。希望还算好理解。欢迎一起讨论~

梯度消失或者梯度爆炸是在训练深度网络时常常容易出现的情况,即在根据损失函数计算的误差通过梯度反向传播的方式对深度网络权值进行更新时,得到的梯度值接近0或特别大,也就是消失或爆炸。梯度消失或梯度爆炸在本质原理上其实是一样的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值