smooth L1、L1、L2 损失函数的区别

本文探讨了L1、L2和Smooth L1损失函数在深度学习和神经网络中的差异。L1损失(MAE)在小扰动时可能导致模型跳跃,而L2损失在接近最小值时梯度减小,有助于收敛。Smooth L1损失结合两者优点,避免过大梯度并能平滑处理异常值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 感谢商汤科技给我一次面试的机会,通过面试也暴漏了自己很多问题。
  • 立体匹配中很多网络都是用的 smooth L1 loss。那他和L1、L2 loss的区别是什么呢?
L1 loss(MAE)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
其中 x 为预测框与 groud truth 之间 elementwise 的差异。
在这里插入图片描述

  1. 先说下L1 loss的优点:
  • 优点:L1 的导数为常数。,无论对于什么样的输入值,都有着稳定的梯度,不会导致梯度爆炸问题,具有较为稳健性的解。如果训练数据被异常值破坏的话(也就是我们在训练环境中错误地接收到巨大的不切实际的正/负值,但在测试环境中却没有),MAE会很有用。
  1. L1 的缺点:<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值