Pytorch交叉熵损失函数 个人解读

官方文档链接:https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html#crossentropyloss

这里的n和N理解为batch的index,c和C理解为class的index,yn为该batch的label(正确的class),由此可见Xn,yn(log后面的分数的分子)是未经过softmax计算的该batch的正确的class的预测值。Wyn是正确的class的权重,ln为该batch的loss,ln始终大于等于0,可见Wyn越大,对应于这个正确的class,要让loss降低相对也更困难。当训练样本不平衡时,可赋予样本数较小的class一个更高的权重,宏观来看不至于让模型训练“投机取巧”(因为样本过少即便不预测这些class也能让loss很小)而使损失函数收敛(样本数量少的class的有更大的Wyn)。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值