AI不惑境 - 学习率和batchsize如何影响模型的性能?
https://zhuanlan.zhihu.com/p/64864995
【AI不惑境】残差网络的前世今生与原理
AI不惑有一系列 还有些深度的文章 推荐读读。
通过不断重置学习率来逃离局部极值点
https://blog.youkuaiyun.com/malefactor/article/details/78768210
你的模型真的陷入局部最优点了吗?
https://www.jiqizhixin.com/articles/2018-07-29-6
如何找到全局最小值?先让局部极小值消失吧
梯度下降学习率的设定策略
https://lumingdong.cn/setting-strategy-of-gradient-descent-learning-rate.html
Must Know Tips/Tricks in Deep Neural Networks阅读笔记
如何避免陷入鞍点(局部最小)
https://blog.youkuaiyun.com/lfc2017/article/details/84864302
理解DL的局部最小
https://blog.youkuaiyun.com/JeremyCzh/article/details/80100601
深度学习基础--BP和训练--局部最优和鞍点
https://blog.youkuaiyun.com/wydbyxr/article/details/84025446
机器学习--“跳出”局部最小值
https://blog.youkuaiyun.com/qq_20880939/article/details/79814931
深度学习 - 解决局部最优点问题的方案
https://blog.youkuaiyun.com/maqunfi/article/details/82634529
深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
https://zhuanlan.zhihu.com/p/22252270
人脸识别损失函数综述(附开源实现)
https://zhuanlan.zhihu.com/p/51324547
人脸识别的损失函数解读
https://blog.youkuaiyun.com/qq_33948796/article/details/89309893
医学图像分割常用的损失函数
https://blog.youkuaiyun.com/Biyoner/article/details/84728417