1、L1 loss 在零点不平滑,用的较少
2、Smooth L1 Loss 修改零点不平滑问题
3、L2 loss:对离群点比较敏感,如果feature 是 unbounded的话,需要好好调整学习率,防止出现梯度爆炸的情况[fast rcnn]
【笔记】机器学习里的各种LOSS(L1,L2)
最新推荐文章于 2025-03-19 10:50:09 发布
1、L1 loss 在零点不平滑,用的较少
2、Smooth L1 Loss 修改零点不平滑问题
3、L2 loss:对离群点比较敏感,如果feature 是 unbounded的话,需要好好调整学习率,防止出现梯度爆炸的情况[fast rcnn]