目录
1.随机初始化(Xavier Initialization、He Initialization等)
2.使用nonsaturating函数(如relu)
3.批量归一化(Batch Normalization, BN)
4.梯度裁剪(Gradient Clipping)
深度学习训练技巧
本文探讨了深度学习训练中常见的问题及解决策略,包括随机初始化、使用非饱和激活函数、批量归一化和梯度裁剪等,旨在帮助读者避免梯度消失与梯度爆炸现象,提升模型训练效率。
目录
1.随机初始化(Xavier Initialization、He Initialization等)
2.使用nonsaturating函数(如relu)
3.批量归一化(Batch Normalization, BN)
4.梯度裁剪(Gradient Clipping)
2132
4344

被折叠的 条评论
为什么被折叠?