
深度学习理论
文章平均质量分 86
深度学习理论
黑白象
这个作者很懒,什么都没留下…
展开
-
【炼丹术】——Focal Loss的理解
WhatFocal Loss最初是由Kaiming大神在Focal Loss for Dense Object Detection一文中提出的,旨在解决目标检测中的数据类别不平衡造成的模型性能问题,也常用于NLP领域。Why本质上,Focal Loss是解决分类问题中类别不均衡、分类难度差异的一个损失函数。fl VS bceHowCodeclass WeightedFocalLoss(nn.Module): "Non weighted version of Focal Loss" .原创 2021-05-13 09:57:21 · 1030 阅读 · 1 评论 -
【NLP-Paper】基于MRC框架的命名实体识别方法
【读论文】原创 2020-06-23 17:42:45 · 4531 阅读 · 5 评论 -
【深度学习理论】炼丹术——聊聊Optimization
【深度学习理论】炼丹术——Optimization原创 2020-05-07 17:12:10 · 968 阅读 · 0 评论 -
【深度学习理论】Model的Errors来自哪里?
large bias和large variance原创 2020-04-23 18:02:25 · 516 阅读 · 0 评论