交叉熵损失函数Cross-entropy loss及比较

交叉熵和Sigmoid

sigmoid一般在神经网络中作为激活函数,交叉熵作为损失函数。
但是交叉熵可以由sigmoid推导而来。
在这里插入图片描述
在这里插入图片描述

交叉熵和对数损失函数

两者本质上没有差别。
在这里插入图片描述

交叉熵和极大似然函数

联系:交叉熵可由极大似然函数在伯努利分布的条件下推导出来,最小化交叉熵函数的本质就是对数似然函数的最大化。
区别:交叉熵函数使用来描述模型预测值和真实值的差距大小,越大代表越不相近;似然函数是衡量在某个参数下,整体的估计和真实的情况一样的概率,越大代表越相近。
在这里插入图片描述

交叉熵和平方差损失函数

在这里插入图片描述
交叉熵损失函数当误差大的时候,权重更新快;当误差小的时候,权重更新慢。
而平方差损失函数更新权重受导数的影响,导数在z取大部分值时会很小,几乎平坦,导致w和b更新非常慢。

交叉熵和KL散度、JS散度

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值