损失函数cross-entrop

本文对比了使用sigmoid函数和cross-entropy损失函数时梯度下降法中权重更新的速度差异。指出sigmoid函数在极端值时更新缓慢,而cross-entropy则能依据误差大小自动调整学习率。

刚开始学习的时候一般使用的损失函数是:


在过程当中使用梯度下降法的时候权重的更新



这时候

可以看的出来对sigmoid函数求导时当数值达到无限大无限小的时候对sigmoid函数求导是时候是很平滑的。所以更新权值的时候在这2种情况下会更新的很慢。

而使用cross-entrop函数



这个时候学习的速率取决于,这样就可以根据误差大学习的速率就大,误差小学习的速率就变小














评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值