神经网络-分类任务损失函数

1.交叉熵损失Cross Entropy Loss

交叉熵主要是用来判定实际的输出与期望的输出的接近程度,也就是交叉熵的值越小,两个概率分布就越接近。

1.1.交叉熵损失表达式

交叉熵损失函数在多分类的问题中的表达式:在这里插入图片描述
其中:

  • M:类别的数量
  • yc 指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;
  • pc :对于观测样本属于类别C的预测概率。
    通常来说,交叉熵损失函数还有另外一种表达形式,对于N个样本:

1.2.交叉熵损失函数的直观理解

首先来看单个样本的交叉熵损失函数:

当真实模型y = 1 时:

损失函数的图像:
横坐标是预测输出,纵坐标是交叉熵损失函数 L。显然,预测输出越接近真实样本标签 1,损失函数 L 越小;预测输出越接近 0,L 越大。因此,函数的变化趋势完全符合实际需要的情况。
当 y = 0 时

损失函数的图像:

同样,预测输出越接近真实样本标签 0,损失函数 L 越小;预测函数越接近 1&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值