各类损失函数-pytorch

本文详细介绍了PyTorch中的损失函数,包括基类_Loss及其派生类,如L1Loss、MSELoss、CrossEntropyLoss等。解析了各损失函数的应用场景,如多目标分类、连续分布距离计算等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转载地址:https://www.jishux.com/p/2a9ae1556486f8be

基类定义

pytorch损失类也是模块的派生,损失类的基类是_Loss,定义如下

class _Loss(Module):
    def __init__(self, size_average=None, reduce=None, reduction='elementwise_mean'):
        super(_Loss, self).__init__()
        if size_average is not None or reduce is not None:
            self.reduction = _Reduction.legacy_get_string(size_average, reduce)
        else:
            self.reduction = reduction

看这个类,有两点我们知道:

  • 损失类是模块
  • 不改变forward函数,但是具备执行功能
    还有其他模块的性质

子类介绍

从_Loss派生的类有

名称说明公式
_WeightedLoss这个类只是申请了一个权重空间,功能和_Loss一样 
L1LossX、Y可以是任意形状的输入,X与Y的 shape相同

PoissonNLLLoss适合多目标分类

KLDivLoss适用于连续分布的距离计算 
MSELoss均方差

BCEWithLogitsLoss多目标不需要经过sigmoid

HingeEmbeddingLossY中的元素只能为1或-1 适用于学习非线性embedding、半监督学习。用于计算两个输入是否相似

MultiLabelMarginLoss适用于多目标分类

SmoothL1Loss 

SoftMarginLoss 

CosineEmbeddingLoss 

MarginRankingLoss 

TripletMarginLoss 

从_WeightedLoss继续派生的函数有

名称说明 
NLLLoss 

BCELoss 

CrossEntropyLoss 

MultiLabelSoftMarginLoss 

MultiMarginLoss 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值