一文看懂 CrossEntropyLoss 多分类交叉熵损失函数

通俗解释:多分类交叉熵损失函数(CrossEntropyLoss)

​交叉熵损失​​就像一个“裁判”,用来衡量模型预测的“信心分布”和真实答案的“正确分布”之间的差距。

​多分类场景​​下(比如识别图片是猫、狗还是鸟),它的核心逻辑是:

​模型对正确类别的预测概率越高,损失越小;预测概率越低,损失越大。​


​举个例子​​(假设有3类:猫、狗、鸟)
  • ​真实标签​​:鸟 → 用概率分布表示为 [0, 0, 1](只有第三类正确)。

  • ​模型预测​​:认为鸟的概率是70% → [0.1, 0.2, 0.7]

​交叉熵损失计算​​:

只看正确类别(第三类)的预测概率,计算 -log(0.7)≈ 0.15。

如果模型预测更准(比如 [0.1, 0.1, 0.8]),损失会更低(-log(0.8) ≈ 0.097);如果预测错误(比如认为是狗 [0.1, 0.7, 0.2]),损失会更大(-log(0.2) ≈ 0.7)。


​核心公式(简化版)​

对于每个样本:

Loss=−log(模型对正确类别的预测概率)
  • ​目标​​:让正确类别的预测概率尽可能接近1,其他类别接近0。

  • ​数学意义​​:预测概率越接近真实分布(如正确类为1,其他为0),损失越小。

熵 (Entropy) 是信息论中的一个概念,用来衡量随机变量的不确定性。在机器学习中,我们通常使用交叉熵 (Cross-Entropy) 作为损失函数,用来衡量模型预测结果与实际结果之间的差异。 以下是一些关于熵和交叉熵的基本概念和公式。 ## 熵 (Entropy) 熵是一个概率分布的度量,它表示随机变量的不确定性。对于一个离散的随机变量 $X$,其熵的数学定义为: $$H(X)=-\sum_{x\in X}p(x)\log_2p(x)$$ 其中,$p(x)$ 表示随机变量 $X$ 取值为 $x$ 的概率,$\log_2$ 表示以 2 为底的对数。 可以看出,当 $p(x)$ 的分布越均匀(即所有 $x$ 的概率都相等)时,熵的值最大,达到 $H(X)=\log_2|X|$;当 $p(x)$ 的分布越集中在某些特定的取值上时,熵的值越小。 ## 交叉熵 (Cross-Entropy) 交叉熵是用来衡量模型预测结果与实际结果之间的差异的一种损失函数。对于一个离散的随机变量 $Y$,其真实分布为 $p(Y)$,模型预测的分布为 $q(Y)$,则交叉熵的数学定义为: $$H(p,q)=-\sum_{y\in Y}p(y)\log_2q(y)$$ 可以看出,当模型的预测结果与真实结果越接近时,交叉熵的值越小。 ## 交叉熵在机器学习中的应用 在机器学习中,我们通常使用交叉熵作为分类模型的损失函数。对于一个分类问题,我们需要将输入 $x$ 分类到 $k$ 个类别中的一个,并且每个类别都对应一个概率值 $p_i$,表示输入 $x$ 属于第 $i$ 个类别的概率。设模型的预测结果为 $q_1,q_2,...,q_k$,表示输入 $x$ 属于每个类别的概率预测值,则其交叉熵的数学定义为: $$H(p,q)=-\sum_{i=1}^kp_i\log_2q_i$$ 我们的目标是最小化交叉熵,使得模型的预测结果尽可能接近真实结果,从而提高模型的准确率。 以上就是关于熵和交叉熵的基本概念和公式,希望能对你有所帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

daxiang12092205

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值