
Pytorch
kendyChina
这个作者很懒,什么都没留下…
展开
-
非极大抑制nms(non-maximum suppression)的pytorch实现
nms作用于目标检测模型中,从众多感兴趣的区域中筛选出最优的结果。如R-CNN系列的目标检测,数千个ROI(region of interes感兴趣区域)经过模型的计算后,仍输出了不少的bounding box(后简称bbox)。实际上,图像中的目标寥寥无几,nms就是从bbox中提取每个目标最可信的结果。非极大值抑制,顾名思义,就是对置信度并非最大的bbox进行抑制(或进行排除),只留...原创 2020-04-04 12:05:13 · 1908 阅读 · 0 评论 -
pytorch的cross_entropy实现
据pytorch的官方文档,torch.nn.functional里的cross_entropy是基于log_softmax和nll_loss实现的。没关系,通过最简单的torch原函数复现,可以较深理解当中的原理。import torchdef my_cross_entropy(input, target, reduction="mean"): # input.shape: torch...原创 2020-04-03 21:39:23 · 5259 阅读 · 0 评论 -
Pytorch损失函数之BCELoss与BCEWithLogitsLoss
1.先说结论nn.BCEWithLogitsLoss等于nn.BCELoss+nn.Sigmoid。主要用于二分类问题,多标签分类问题。图为Pytorch Document对于BCEWithLogitsLoss的描述,这个损失函数结合了Sigmoid和BCELoss。2.公式分解BCEWithLogitsLoss假设有N个batch,每个batch预测n个标签,则Loss为:Loss={l1,...,lN}, ln=−[yn⋅log(σ(xn))+(1−yn)⋅log(1−原创 2020-05-24 10:05:37 · 8843 阅读 · 1 评论 -
Pytorch损失函数之nn.NLLLoss与nn.CrossEntropyLoss
1. 先说结论nn.CrossEntropyLoss(简称CEL)等于nn.NLLLoss(简称NLL)+torch.log+F.softmax主要用于多分类问题的损失计算。图为Pytorch对于CEL的描述,这个criterion(指标)结合了nn.LogSoftmax()和nn.NLLLoss()nn.LogSoftmax()其实也就是torch.log+F.softmax2.CrossEntropyLoss(CEL)公式分解CEL(x,class)=−log(exp(x[class])原创 2020-05-23 21:26:25 · 2022 阅读 · 0 评论