快速理解binary cross entropy 二元交叉熵

Binary cross entropy 二元交叉熵是二分类问题中常用的一个Loss损失函数,在常见的机器学习模块中都有实现。本文就二元交叉熵这个损失函数的原理,简单地进行解释。

首先是二元交叉熵的公式 :
L o s s = − 1 N ∑ i = 1 N y i ⋅ log ⁡ ( p ( y i ) ) + ( 1 − y i ) ⋅ l o g ( 1 − p ( y i ) ) Loss = - \frac{1}{N}\sum_{i=1}^{N}y_i \cdot \log(p(y_i)) + (1 - y_i) \cdot log(1-p(y_i)) Loss=N1i=1Nyilog(p(yi))+(1yi)log(1p(yi))

其中, y y y 是二元标签 0 或者 1, p ( y ) p(y) p(y) 是输出属于 y y y 标签的概率。作为损失函数,二元交叉熵是用来评判一个二分类模型预测结果的好坏程度的,通俗的讲,即对于标签y为1的情况,如果预测值p(y)趋近于1,那么损失函数的值应当趋近于0。反之,如果此时预测值p(y)趋近于0,那么损失函数的值应当非常大,这非常符合log函数的性质。

下面以单个输出为例子,在标签为 y = 1 y=1 y=1 的情况下 L o s s = − log ⁡ ( p ( y ) ) Loss = -\log(p(y)) Loss=log(p(y)), 当预测值接近1时, L o s s = 0 Loss = 0 Loss=0, 反之 L o s s Loss Loss 趋向于正无穷。

在这里插入图片描述

同样的单个输出为例,当标签 y = 0 y=0 y=0时,损失函数 L o s s = − log ⁡ ( 1 − p ( y ) ) Loss = -\log(1-p(y)) Loss=log(1p(y)),当预测值接近0时, L o s s = 0 Loss = 0 Loss=0,反之 L o s s Loss Loss 趋向于正无穷。

在这里插入图片描述
之后,再对所有计算出的单个输出损失求和求平均,就可以求出模型针对一组大小为N的输出的Loss了。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值