为什么要用交叉熵损失函数

为什么要用交叉熵损失函数

在机器学习中用到的最多的是MSE(最小二乘损失函数),这个比较好理解,就是预测值和目标值的欧式距离。而交叉熵是一个信息论的概念,

在这里插入图片描述

其中p代表目标值,q代表预测值 。x表示单个样本的维度。对于分类问题,假如n个类别,一般情况下输出为n个神经元(只有其中正确属性的一维为1,其他为0),则上式可以简写为:

H(p,q)=-log(qi) ,i为其中正确属性维数的置信概率值。如此我们便非常清晰的看到,实际的交叉熵损失函数就是预测的正确维数值与1的某种距离(当qi=1时,即预测完全正确,距离为0)。多个样本可以取平均。所以说交叉熵损失函数可以很好地适用于分类问题,而不是其他回归问题。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值