损失函数loss总结

本文全面解析深度学习中常见的损失函数,包括交叉熵、平衡交叉熵、KL散度、编辑距离、中心损失等,以及回归任务中的MSE、MAE、HuberLoss等,深入探讨各函数的应用场景与优缺点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

From here

分类任务loss:

 

二分类交叉熵损失sigmoid_cross_entropy:

TensorFlow 接口:

tf.losses.sigmoid_cross_entropy(
    multi_class_labels,
    logits,
    weights=1.0,
    label_smoothing=0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
tf.nn.sigmoid_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    name=None
)
keras 接口:

binary_crossentropy(y_true, y_pred)
 

二分类平衡交叉熵损失balanced_sigmoid_cross_entropy:

 

该损失也是用于2分类的任务,相比于sigmoid_cross_entrop的优势在于引入了平衡参数 ,可以进行正负样本的平衡,得到比sigmoid_cross_entrop更好的效果。

多分类交叉熵损失softmax_cross_entropy:

TensorFlow 接口:

tf.losses.softmax_cross_entropy(
    onehot_labels,
    logits,
    weights=1.0,
    label_smoothing=0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
tf.nn.softmax_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    dim=-1,
    name=None
)
tf.nn.sparse_softmax_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    name=None
)
keras 接口:

categorical_crossentropy(y_true, y_pred)
sparse_categorical_crossentropy(y_true, y_pred)
focal loss:

focal loss为凯明大神的大作,主要用于解决多分类任务中样本不平衡的现象,可以获得比softmax_cross_entropy更好的分类效果。

论文中α=0.25,γ=2效果最好。

dice loss:

 

2分类任务时使用的loss,本质就是不断学习,使得交比并越来越大。

TensorFlow 接口:

def dice_coefficient(y_true_cls, y_pred_cls):
    '''
    dice loss
    :param y_true_cls:
    :param y_pred_cls:
    :return:
    '''
    eps = 1e-5
    intersection = tf.reduce_sum(y_true_cls * y_pred_cls )
    union = tf.reduce_sum(y_true_cls ) + tf.reduce_sum(y_pred_cls) + eps
    loss = 1. - (2 * intersection / union)
    tf.summary.scalar('classification_dice_loss', loss)
    return loss
 

合页损失hinge_loss:

也叫铰链损失,是svm中使用的损失函数。

由于合页损失优化到满足小于一定gap距离就会停止优化,而交叉熵损失却是一直在优化,所以,通常情况下,交叉熵损失效果优于合页损失。

TensorFlow 接口:

tf.losses.hinge_loss(
    labels,
    logits,
    weights=1.0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
keras 接口:

hinge(y_true, y_pred)
 

Connectionisttemporal classification(ctc loss):

对于预测的序列和label序列长度不一致的情况下,可以使用ctc计算该2个序列的loss,主要用于文本分类识别和语音识别中。

TensorFlow 接口:

tf.nn.ctc_loss(
    labels,
    inputs,
    sequence_length,
    preprocess_collapse_repeated=False,
    ctc_merge_repeated=True,
    ignore_longer_outputs_than_inputs=False,
    time_major=True
)
keras 接口:

tf.keras.backend.ctc_batch_cost(
    y_true,
    y_pred,
    input_length,
    label_length
)
编辑距离 edit loss:

编辑距离,也叫莱文斯坦Levenshtein 距离,指的是两个字符串之间,由一个转换成另一个所需的最少编辑操作次数。许可的编辑操作包括将一个字符替换成另一个字符,插入一个字符,删除一个字符。
该损失函数的优势在于类似于ctc loss可以计算2个长度不等的序列的损失。
TensorFlow 接口:

tf.edit_distance(
    hypothesis,
    truth,
    normalize=True,
    name='edit_distance'
)
KL散度:

KL散度( Kullback–Leibler divergence),也叫相对熵,是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。

从上面式子可以看出,kl散度,也就是相对熵,其实就是交叉熵+一个常数项。

TensorFlow 接口:

tf.distributions.kl_divergence(
    distribution_a,
    distribution_b,
    allow_nan_stats=True,
    name=None
)
 
tf.contrib.distributions.kl(
dist_a,
    dist_b,
    allow_nan =False,
    name=None
)
最大间隔损失large margin softmax loss:

用于拉大类间距离的损失函数,可以训练得到比传统softmax loss更好的分类效果。

最大间隔损失主要引入了夹角cos值进行距离的度量。假设bias为0的情况下,就可以得出如上的公式。

其中fai(seita)需要满足下面的条件。

 

为了进行距离的度量,在cos夹角中引入了参数m。该m为一个正整数,可以起到控制类间间隔的作用。M越大,类间间隔越大。当m=1时,等价于传统交叉熵损失。基本原理如下面公式

 

 

论文中提供的满足该条件的公式如下

 

中心损失center loss:

中心损失主要主要用于减少类内距离,虽然只是减少了累内距离,效果上却可以表现出累内距离小了,类间距离就可以增大的效果。该损失不可以直接使用,需要配合传统的softmax loss一起使用。可以起到比单纯softmax loss更好的分类效果。

回归任务loss:

 

均方误差mean squareerror(MSE)和L2范数:

MSE表示了预测值与目标值之间差值的平方和然后求平均

L2损失表示了预测值与目标值之间差值的平方和然后开更方,L2表示的是欧几里得距离。

MSE和L2的曲线走势都一样。区别在于一个是求的平均np.mean(),一个是求的更方np.sqrt()

TensorFlow 接口:

tf.losses.mean_squared_error(
    labels,
    predictions,
    weights=1.0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
tf.metrics.mean_squared_error(
    labels,
    predictions,
    weights=None,
    metrics_collections=None,
    updates_collections=None,
    name=None
)
keras 接口:

mean_squared_error(y_true, y_pred)
平均绝对误差meanabsolute error(MAE )和L1范数:

MAE表示了预测值与目标值之间差值的绝对值然后求平均

L1表示了预测值与目标值之间差值的绝对值,L1也叫做曼哈顿距离

MAE和L1的区别在于一个求了均值np.mean(),一个没有求np.sum()。2者的曲线走势也是完全一致的。

TensorFlow 接口:

tf.metrics.mean_absolute_error(
    labels,
    predictions,
    weights=None,
    metrics_collections=None,
    updates_collections=None,
    name=None
)
keras 接口:

mean_absolute_error(y_true, y_pred)
MSE,MAE对比:

MAE损失对于局外点更鲁棒,但它的导数不连续使得寻找最优解的过程低效;MSE损失对于局外点敏感,但在优化过程中更为稳定和准确。

Huber Loss和smooth L1:

Huber loss具备了MAE和MSE各自的优点,当δ趋向于0时它就退化成了MAE,而当δ趋向于无穷时则退化为了MSE。

Smooth L1 loss也具备了L1 loss和L2 loss各自的优点,本质就是L1和L2的组合。

Huber loss和Smooth L1 loss具有相同的曲线走势,当Huber loss中的δ等于1时,Huber loss等价于Smooth L1 loss。

对于Huber损失来说,δ的选择十分重要,它决定了模型处理局外点的行为。当残差大于δ时使用L1损失,很小时则使用更为合适的L2损失来进行优化。

Huber损失函数克服了MAE和MSE的缺点,不仅可以保持损失函数具有连续的导数,同时可以利用MSE梯度随误差减小的特性来得到更精确的最小值,也对局外点具有更好的鲁棒性。

但Huber损失函数的良好表现得益于精心训练的超参数δ。

TensorFlow接口:

tf.losses.huber_loss(
    labels,
    predictions,
    weights=1.0,
    delta=1.0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)
对数双曲余弦logcosh:

其优点在于对于很小的误差来说log(cosh(x))与(x**2)/2很相近,而对于很大的误差则与abs(x)-log2很相近。这意味着logcosh损失函数可以在拥有MSE优点的同时也不会受到局外点的太多影响。它拥有Huber的所有优点,并且在每一个点都是二次可导的。

keras 接口:

logcosh(y_true, y_pred)

--------------------- 
版权声明:本文为优快云博主「watersink」的原创文章,遵循CC 4.0 by-sa版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.youkuaiyun.com/qq_14845119/article/details/80787753

<think>好的,我现在需要回答用户关于L1损失函数的定义、用法和实现的问题。首先,用户之前的问题是关于注意力机制的,现在转向了损失函数,特别是L1损失。我需要结合用户提供的引用内容,尤其是引用[2]、[3]、[4]中的信息,来构建回答。 首先,用户提到的引用[2]中提到了Smooth L1 Loss,其中提到当误差大时表现得像L1,误差小时像L2。这可能与L1 Loss的特性有关,但用户现在明确询问的是L1 Loss本身。引用[3]提到了Quantile损失函数和MAE,而MAE其实就是L1损失函数。引用[4]的表格里详细介绍了各种损失函数,包括L1Loss的应用场景,比如回归任务,对异常值不敏感,适用于有异常值的情况。 接下来,我需要确定L1损失函数的数学定义。根据知识,L1损失是预测值和真实值之差的绝对值之和的平均,公式应该是:$$ L = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i| $$ 这里需要确认引用中的内容是否有补充。引用[4]提到L1Loss用于回归任务,对异常值不那么敏感,这应该在回答中强调。 然后,关于应用场景,用户可能想知道在什么情况下应该使用L1而不是MSE。根据引用[4],当数据含有异常值时,L1通常优于MSE。此外,引用[3]提到MAE倾向于估计中位数,这可能在某些情况下有用,比如需要鲁棒性的时候。 用法方面,需要解释如何在PyTorch中实现L1损失,可能给出代码示例。根据引用[4],PyTorch中的L1Loss对应torch.nn.L1Loss,所以应该提供一个简单的代码片段,展示如何初始化和使用该损失函数。 同时,用户提供的引用中有关于Smooth L1 Loss的信息,可能需要对比L1和Smooth L1的区别,但用户的问题是直接关于L1的,所以这部分可以作为扩展或比较,但重点应放在L1上。 此外,用户可能想知道L1损失函数的优缺点。根据引用[2]和[4],优点是对异常值不敏感,缺点是可能在优化时收敛较慢,因为梯度在接近零点处不平滑。 需要确保回答结构清晰,分为定义、应用场景、实现、优缺点等部分,并引用相关的引用来源。例如,在提到对异常值的鲁棒性时,可以引用[2]和[4]。 最后,生成相关问题,可能需要联系用户之前的注意力机制问题,或者损失函数的其他类型,比如Smooth L1、Quantile损失等,但根据当前问题,相关问题应围绕L1损失展开,如与其他损失函数的对比,如何选择损失函数,实际应用案例等。 检查是否有遗漏的信息,比如引用[3]中的分位数损失是否与L1相关,MAE和中位数的关系是否需要进一步解释。确保回答准确,同时参考用户提供的引用内容,但不过度引用不相关的部分。 总结,回答的结构应该是: 1. 定义(公式、解释) 2. 应用场景(回归、异常值处理) 3. 实现方法(PyTorch代码) 4. 优缺点 5. 对比其他损失函数(如MSE) 6. 相关问题 在引用方面,应用场景部分引用[4],对异常值的处理引用[2]和[4],中位数倾向引用[3]等。确保每个引用只在相关部分提及,并在末尾添加标识。</think># L1损失函数详解 ## 一、数学定义与特性 L1损失函数(平均绝对误差,MAE)的数学表达式为: $$ L = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i| $$ 其中$y_i$为真实值,$\hat{y}_i$为预测值。该函数具有**对称性**和**鲁棒性**,对异常值敏感度较低[^2][^4]。 关键特性: 1. 倾向于估计数据的中位数(对比MSE估计均值)[^3] 2. 梯度在原点处不连续,但整体梯度幅度恒定 3. 误差增长速率线性于预测偏差 ## 二、应用场景 | 场景类型 | 具体案例 | 优势体现 | |----------------|----------------------------|------------------------| | 回归任务 | 房价预测、销量预测 | 对异常值不敏感[^4] | | 图像处理 | 图像去噪、超分辨率重建 | 保持边缘锐度 | | 金融预测 | 股价波动预测 | 降低极端事件影响 | | 传感器数据校准 | 工业设备异常检测 | 稳定处理测量噪声 | ## 三、PyTorch实现方法 ```python import torch.nn as nn # 创建损失函数实例 l1_loss = nn.L1Loss(reduction='mean') # reduction可选'max','min','sum' # 计算损失示例 pred = torch.tensor([2.5, 0.8, 5.2]) # 预测值 target = torch.tensor([3.0, 0.5, 4.9]) # 真实值 loss = l1_loss(pred, target) # 输出:0.4 ``` ## 四、与MSE的对比分析 $$ \begin{array}{|l|c|c|} \hline \text{特性} & \text{L1 Loss} & \text{MSE} \\ \hline \text{数学形式} & |y-\hat{y}| & (y-\hat{y})^2 \\ \text{梯度特性} & \text{恒定梯度} & \text{梯度随误差增大而增强} \\ \text{异常值敏感度} & \text{低} & \text{高} \\ \text{收敛速度} & \text{较慢} & \text{较快} \\ \text{最优估计} & \text{中位数} & \text{均值} \\ \hline \end{array} $$ ## 五、改进方案 1. **Smooth L1 Loss**:在接近零点区域使用二次函数平滑 $$ L = \begin{cases} 0.5x^2 & \text{if } |x| < 1 \\ |x| - 0.5 & \text{otherwise} \end{cases} $$ 平衡了L1/L2的优点,常用于目标检测(如Faster R-CNN)[^2] 2. **Huber Loss**:引入可调参数δ控制平滑范围 $$ L_\delta = \begin{cases} \frac{1}{2}x^2 & \text{for } |x| \leq \delta \\ \delta|x| - \frac{1}{2}\delta^2 & \text{otherwise} \end{cases} $$ ## 六、最佳实践建议 1. **数据预处理**:建议对输入数据进行标准化(Z-score) 2. **优化器选择**:搭配自适应优化器(如Adam)可改善收敛性 3. **学习率设置**:初始学习率建议设为MSE场景的1/10 4. **监控指标**:建议同时计算MAE和MSE评估模型表现 --相关问题-- 1. 如何选择L1 Loss和Huber Loss的超参数? 2. 在图像重建任务中,L1 Loss相比MSE有什么视觉优势? 3. 为什么L1正则化能产生稀疏解? 4. 如何实现带权重的L1 Loss函数? [^2]: 当预测值与真实值之间的差异很大时,Smooth L1 Loss表现得像L1 Loss,这减少了对大误差的惩罚 [^3]: MAE函数实际上会倾向于预估样本中位数 [^4]: L1Loss对异常值不那么敏感,当数据含有异常值时通常优于MSE
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值