torch.nn.CrossEntropyLoss

1.说明

交叉熵损失函数是神经网路中比较有用的函数,作用是为了计算出初始化的 y 和实际标签 label 的差别。

torch.nn.CrossEntropyLoss(weight=None, size_average=None, ignore_index=- 100, reduce=None, reduction='mean', label_smoothing=0.0)
  • 公式:
    l ( x , y ) = L = { l 1 , . . . , l N } T (1) l(x,y)=L=\{l_1,...,l_N\}^T\tag{1} l(x,y)=L={l1,...,lN}T(1)
    l n = − w y n log ⁡ exp ⁡ ( x n , y n ) ∑ c = 1 C exp ⁡ ( x n , c ) ⋅ 1 { y n ≠ i g n o r _ i n d e x } (2) l_n=-w_{yn}\log{\frac{\exp(x_{n,yn})}{\sum_{c=1}^C\exp(x_{n,c})}}·1\{y_n ≠ignor\_index\}\tag{2} ln=wynlogc=1Cexp(xn,c)exp(xn,yn)1{yn=ignor_index}(2)
    在这里插入图片描述
  • mean : 求得损失的均值
  • sum : 求得损失的和
  • none: 求得损失

2. 代码

# -*- coding: utf-8 -*-
# @Project: zc
# @Author: zc
# @File name: CrossEntropyLoss_Test
# @Create time: 2022/1/3 10:07

# 1. 导入相关数据库
import torch
from torch.nn import functional as F

# 2.定义一个初始化的 y_out
y_out = torch.Tensor([[1, 2, 3], [3, 4, 1]])

# 3.定义一个目标张量 target
target = torch.LongTensor([0, 1])

# 4.定义交叉熵损失,reduction用默认的,reduction='mean',
# 返回交叉熵损失的均值,最后得到一个张量 (L1+L2)/2
loss_defaut = F.cross_entropy(y_out, target)

# 5.定义交叉熵损失,reduction='mean',返回交叉熵损失的均值,最后得到一个张量 (L1+L2)/2
loss_mean = F.cross_entropy(y_out, target, reduction='mean')

# 6.定义交叉熵损失,reduction='sum',返回交叉熵损失的和,最后得到一个张量L1+L2
loss_sum = F.cross_entropy(y_out, target, reduction='sum')

# 7.定义交叉熵损失,reduction='none',返回交叉熵损失,一个元祖(L1,L2)
loss_none = F.cross_entropy(y_out, target, reduction='none')
print(f'y_out={y_out}')
print(f'target={target}')
print(f'loss_defaut={loss_defaut}')
print(f'loss_mean={loss_mean}')
print(f'loss_sum={loss_sum}')
print(f'loss_none={loss_none}')

3. 结果

y_out=tensor([[1., 2., 3.],
        [3., 4., 1.]])
target=tensor([0, 1])
loss_defaut=1.3783090114593506
loss_mean=1.3783090114593506
loss_sum=2.756618022918701
loss_none=tensor([2.4076, 0.3490])
torch.nn.CrossEntropyLossPyTorch中常用的交叉熵损失函数之一。它结合了torch.nn.LogSoftmax和torch.nn.NLLLoss两个函数,用于多分类问题的训练中。交叉熵损失函数常用于衡量模型输出与真实标签之间的差异。 在torch.nn.CrossEntropyLoss中,输入的形状为(batch_size, num_classes),其中batch_size是每个训练批次的样本数量,num_classes是分类的类别数量。在训练过程中,模型输出的结果会通过torch.nn.LogSoftmax函数进行处理,得到对应的概率分布。然后,模型预测的概率分布与真实标签之间会被计算交叉熵损失。 交叉熵损失函数的计算公式如下: loss = -sum(y_true * log(y_pred)) 其中,y_true是真实标签的概率分布,y_pred是模型预测的概率分布。 torch.nn.CrossEntropyLoss会自动将模型输出的概率分布进行归一化,并进行log运算。因此,在使用torch.nn.CrossEntropyLoss时,不需要手动应用torch.nn.LogSoftmax函数。 需要注意的是,torch.nn.CrossEntropyLoss函数的输入不包含softmax层。如果模型的最后一层是softmax层,可以直接使用torch.nn.CrossEntropyLoss来计算损失。如果模型的最后一层是logits层(未经过softmax激活),可以使用torch.nn.CrossEntropyLoss配合torch.nn.LogSoftmax来计算损失。 总结起来,torch.nn.CrossEntropyLossPyTorch中用于多分类问题训练的交叉熵损失函数,它结合了torch.nn.LogSoftmax和torch.nn.NLLLoss两个函数,并且可以适用于不同形式的模型输出。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值