结论
focal loss主要是解决了难易样本不均衡的问题,就是模型容易分类的样本多,不易分类的样本少,顺带还解决了一点样本不均衡的问题
解析
公式如下

1. 类别权重
为了应该样本不均衡的问题,对每个类别赋予不同的权重,可以使得模型关注的重点往样本少的类别倾斜。
2. 难度权重
对于容易分类的样本,我们希望他产生的损失少,比较难得样本就相反,其中Pt代表预测的概率,对于正例,我们希望P越接近1越好,带入会使得难度权重很低,如果模型表现得很差,p很小,此时的loss就会很大,让模型进行梯度更新,从而进行调整。