交叉熵“的来源”与基尼系数

交叉熵作为机器学习中常用的损失函数,源于概率论中的对数转换,旨在衡量模型预测的准确性。通过引入负号,使得损失函数能够反映模型的不准确性。另一方面,基尼系数描述小概率事件发生的难度,与交叉熵有相似之处,可以通过泰勒展开简化运算,揭示两者之间的联系。

交叉熵是非常重要的损失函数,也是应用最多的损失函数之一。下面来介绍交叉熵的来源
我们知道,当样本真实样本标签 y = 1 时,上面式子第二项就为 1,概率等式转化为:
在这里插入图片描述
当真实样本标签 y = 0 时,上面式子第一项就为 1,概率等式转化为:
在这里插入图片描述
这时候,P(y|x)代表了这个模型预测正确的几率,我们当然希望的是概率 P(y|x) 越大越好,但是上面的指数特别烦人,按照以前数学的尿性,往往就是对其取对数将指数运算变成乘法,所以我们对 P(y|x) 引入 log 函数(底数要大于1)。则有:
在这里插入图片描述

但是,损失函数表示模型的不准确的程度,不过没关系,只需要在式子的前面加上一个负号就能让其单调性改变,令 Loss = -log P(y|x) 即可。则得到损失函数为:

在这里插入图片描述
类推一下,假设y也是概率,不难得出交叉熵的计算公式
在这里插入图片描述
其实,这只是交叉熵与分类损失函数的联系。

换一个思路,假设一个事件,它发生的概率很小,但是还是发生了,这时候我们得找一个函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值