多分类损失函数---交叉熵cross entropy

### 关于交叉熵损失函数 #### 交叉熵损失函数定义 交叉熵损失函数是一种衡量实际输出与期望输出之间差异的方法,在机器学习领域特别是分类问题中广泛应用。该方法通过比较预测概率分布和真实标签的概率分布之间的距离来进行评估。 #### 公式表达 对于二分类问题中的单个样本而言,其交叉熵损失可以由下述公式给出: \[ L(y, \hat{y}) = -[ y \log(\hat{y}) + (1-y)\log(1-\hat{y}) ] \] 其中 \(y\) 表示真实的类别标签(0 或者 1),而 \(\hat{y}\) 则代表模型对该类别的预测概率[^2]。 当处理多分类情况时,则会采用更一般的软最大似然估计(Softmax)配合交叉熵的形式: \[ C=-\sum_{i=1}^{N}{t_i log(p_i)} \] 这里\(p_i\) 是经过 Softmax 转换后的第 i 类的预测概率;\(t_i\) 是对应的真实标签向量中的元素值,通常是一个 one-hot 编码形式的数据集的一部分[^3]。 #### 应用场景 - **逻辑回归** 和其他线性判别分析算法经常使用二元交叉熵作为目标函数。 - 在深度学习框架内,无论是卷积神经网络还是循环神经网络都可能涉及到 softmax 层加上交叉熵损失组合来完成最终决策任务。 - 对于自然语言处理(NLP),图像识别等领域来说,这种类型的损失函数有助于提高模型性能并加速收敛过程。 ```python import torch.nn as nn # 创建一个简单的二分类交叉熵损失实例 criterion = nn.BCELoss() output = torch.tensor([0.7], requires_grad=True) target = torch.tensor([1.]) loss = criterion(output, target) print(f'Binary Cross Entropy Loss: {loss.item()}') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值