Focal Loss理解补充

阅读此博文的基础上有部分存疑的地方,做了补充。原文写的很好,建议阅读。

原博:https://www.cnblogs.com/king-lps/p/9497836.html

个人理解补充部分

1.gamma作用是调节难易,alpha作用是平衡正负样(正负样本数量不均衡)。

2.gamma作用是调节难易样本对于总loss的权重(正负样本中都有难易,都进行了调节)。gamma=2时,正样本中越是难区分的样本权重更高,越是容易区分的样本权重越低;负样本也是同样,越是难区分的样本权重更高,越是容易区分的样本权重越低;

3.alpha作用是平衡正负样本数量对于总loss的权重。一般情况,负样本会远远多于正样本数量,造成样本不平衡,alpha大于0.5的值才可以进行调节。但是因为已经有gamma=2的调节,所以文中最终取alpha=0.75是最好的。可以大概理解为,因为有gamma的调节后,alpha=0.75效果最好,是因为更需要负样本中的困难样本,对正样本的困难样本的相对需求少一些。

 

 

 

 

 

 

 


 

 

我想要减小分类损失,添加使用Focal Loss缓解类别不平衡问题。我将提供loss.py和metrics.py中的相关代码,请帮我进行补充,保证box_loss的减小,同时实现cls_loss的减小 loss.py中代码: def forward(self, pred_dist, pred_bboxes, anchor_points, target_bboxes, target_scores, target_scores_sum, fg_mask): """IoU loss.""" weight = target_scores.sum(-1)[fg_mask].unsqueeze(-1) # iou = bbox_iou(pred_bboxes[fg_mask], target_bboxes[fg_mask], xywh=False, CIoU=True) # loss_iou = ((1.0 - iou) * weight).sum() / target_scores_sum iou = bbox_iou(pred_bboxes[fg_mask], target_bboxes[fg_mask],xywh=False, alpha_iou=True, alpha=3.0) loss_iou = ((1.0 - iou) * weight).sum() / target_scores_sum if type(iou) is tuple: if len(iou) == 2: loss_iou = ((1.0 - iou[0]) * iou[1].detach() * weight).sum() / target_scores_sum else: loss_iou = (iou[0] * iou[1] * weight).sum() / target_scores_sum else: loss_iou = ((1.0 - iou) * weight).sum() / target_scores_sum metrics.py中代码: def bbox_iou(box1, box2, xywh=True, GIoU=False, DIoU=False, CIoU=False,alpha_iou=False,alpha=3.0, eps=1e-7): #中间不变 # IoU iou = inter / union if CIoU or DIoU or GIoU: cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1) # convex (smallest enclosing box) width ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1) # convex height if CIoU or DIoU: # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1 c2 = cw.pow(2) + ch.pow(2) + eps # convex diagonal squared rho2 = ( (b2_x1 + b2_x2 - b1_x1 - b1_x2).pow(2) + (b2_y1 + b2_y2 - b1_y1 - b1_y2).pow(2) ) / 4 # center dist**2 if CIoU: # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47 v = (4 / math.pi**2) * ((w2 / h2).atan() - (w1 / h1).atan()).pow(2) with torch.no_grad(): alpha = v / (v - iou + (1 + eps)) return iou - (rho2 / c2 + v * alpha) # CIoU return iou - rho2 / c2 # DIoU c_area = cw * ch + eps # convex area return iou - (c_area - union) / c_area # GIoU https://arxiv.org/pdf/1902.09630.pdf # 添加Alpha-IoU计算 if alpha_iou: alpha = alpha if alpha > 0 else 3.0 # 默认α=3 alpha_iou = 1 - ((1 - iou) ** alpha) # Alpha-IoU公式 return alpha_iou return iou # IoU
最新发布
03-31
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值