focal loss分析图 (完善知乎的一个评论)

本文探讨了Focal Loss的作用原理,指出样本的重要性取决于其对权值梯度的影响而非直接的损失值。通过分析Focal Loss的导数,发现其在不同r值下对模型预测概率y的影响,揭示了为何r=2时的表现最优。作者提出,关键在于维持不同y值处导数的相对关系,而不是绝对大小,以有效区分难易分类样本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Focal loss 全图

在这里插入图片描述

Focal loss 局部放大图

在这里插入图片描述

  • 首先我觉得(个人猜测)一个样本的作用大小, 不是直接由它对应的loss决定的, 而是由这个样本对应loss对权值w的梯度决定的. 因为梯度越大, 则权值更新得越多(是朝着该样本loss减小的方向更新越多)
  • 用one-hot做交叉熵loss的话, 样本 x i x^i xi(假设属于类别k)对应的loss: l o s s x k i = − l o g ( y k ( x i ) ) = 简 写 为 − l o g ( y k i ) loss_{x_k^i} = -log(y_k(x^i)) \overset{简写为}{=}-log(y_k^i) lossxk
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值