mini-batch

博客介绍了动量梯度下降法、RMSprop、Adam优化算法和学习率衰减等内容,探讨了局部最优、鞍点等问题。还提及超参数选择范围,对比了pandas与caviar在超参数训练中的应用。此外,阐述了正则化网络的激活函数批量归一化,包括其原理、为何奏效及测试时的情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

动量梯度下降法
在这里插入图片描述
RMSprop(均方根传递)
在这里插入图片描述
Adam优化算法(动量+rmsprop)

在这里插入图片描述
在这里插入图片描述
学习率衰减
在这里插入图片描述
在这里插入图片描述
局部最优的问题
当参数点多的时个,鞍点
在这里插入图片描述
在这里插入图片描述
调试处理
重要程度
a参数最重要<橙色<蓝色,beta1,beta2,gama一般默认参数

在这里插入图片描述
在这里插入图片描述
为超参数选择合适的范围
在这里插入图片描述
当beta趋于1时,越敏感(1/1-beta)
在这里插入图片描述
超参数训练的实践:pandas vs caviar
在这里插入图片描述
正则化网络的激活函数(批量归一化)
对z1归一化要普遍得多
在这里插入图片描述
sigm e:避免分母为0
Y,和beta可以从模型中学习
在这里插入图片描述
深度神经网络的batch-norm
在这里插入图片描述
在这里插入图片描述
batch norm 为什么 奏效

在这里插入图片描述在这里插入图片描述
测试时的batch-norm
在这里插入图片描述


  1. 2 ↩︎

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值