经典损失函数一览

本文介绍了回归问题中的绝对值损失、平方损失和Huber损失,以及分类问题中的0-1 Loss、Cross Entropy Loss、Hinge Loss和Exponential Loss。重点探讨了各类损失函数的特点和应用场景,例如平方损失对异常点敏感,而Huber损失结合了L1和L2的优点。Cross Entropy Loss因连续可导和对异常点干扰小而广泛应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

损失函数(Loss Function)用来估量模型的预测值 y ^ = f ( x ) \hat y = f(x) y^=f(x) 与真实值 y y y 的不一致程度。这里做一个简单梳理,以备忘,原文见损失函数清单

回归问题

常见的回归问题损失函数有绝对值损失、平方损失、Huber损失。

绝对值损失

又叫做L1损失。

L ( y , y ^ ) = ∣ y − y ^ ∣ L(y, \hat y) = |y - \hat y| L(y,y^)=yy^

M A E = 1 n ∑ i = 1 n ∣ y − y ^ ∣ MAE = \frac{1}{n} \sum_{i=1}^{n} |y - \hat y| MAE=n1i=1nyy^

MAE一个问题是在 y − y ^ = 0 y - \hat y=0 yy^=0 处不可导,优化比较困难。

平方损失

又称为L2损失。

L ( y , y ^ ) = ( y − y ^ ) 2 L(y, \hat y) = (y - \hat y)^2 L(y,y^)=(yy^)2

M S E = 1 n ∑ i = 1 n ( y ^ − y ) 2 MSE = \frac{1}{n} \sum_{i=1}^{n}(\hat y - y)^2 MSE=n1i=1n(y^y)2

MSE一个问题是对异常点敏感,由于平方的存在,会放大对异常点的关注。

Huber损失

相当于是L1和L2损失的一个结合。

L δ ( y , y ^ ) = { 1 2 ( y − y ^

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值