随笔系列之- log loss

本文介绍了在机器学习中作为分类模型评估的Log Loss,它用于惩罚错误分类,当预测概率为1时,对loss的贡献为0。讨论了如何避免因0或1导致的log溢出问题,并特别关注了二分类问题的Log Loss函数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

log loss

在机器学习构建分类模型的任务中经常使用的损失度量方法;
对数损失的公式为:

iNjMyijlog(pij)−∑iN∑jMyijlog(pij)

其中N对应于我们的样本数或者输入的实例的数量,i对应于某一个样本或者实例;M表示我们的样本可能的分类数量,j表示某一个分类;yijyij 表示对于某个样本i,其属于分类j的标签?通常是0或者1,而且i只属于一个分类;然后pijpij 表示的是样本i预测为j分类的概率!

从表达式中我们可以看到,log loss旨在惩罚错误分类,对于完全正确的分类(预测概率为1)显然其对loss的贡献为0; 当然我们可以控制其范围,避免因为0或者1带来的log溢出问题.

对于一个二分类问题来说,其log loss function为:

iN(yilogpi+(1yi)log(1pi))−∑iN(yilogpi+(1−yi)log(1−pi))

二分类概率损失曲线
通过简单的绘制二分类的损失曲线(图片借助于别的网站):比如我们可以绘制分类为1,概率为p,其中p的范围是(0~1),的曲线,我们可以看到对于正例的错误分类,其惩罚是严重的!除非可以百分百确定,否则都会产生损失.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值