交叉熵损失函数的通用性(为什么深度学习DL普遍用它):预测输出与 y 差得越多,L 的值越大,也就是说对当前模型的 “ 惩罚 ” 越大,而且是非线性增大是一种类似指数增长的级别,结论:它对训练模型识别效果有引导性
重点提一点的是,从图形中我们可以发现:预测输出与 y 差得越多,L 的值越大,也就是说对当前模型的 “ 惩罚 ” 越大,而且是非线性增大,是一种类似指数增长的级别。这是由 log 函数本身的特性所决定的。这样的好处是模型会倾向于让预测输出更接近真实样本标签 y。
https://blog.youkuaiyun.com/red_stone1/article/details/80735068
交叉熵损失函数解析

本文介绍了深度学习中常用的交叉熵损失函数。该函数通过非线性增大方式对模型进行惩罚,促使预测输出更加接近真实标签,有效提升模型的识别效果。
1427

被折叠的 条评论
为什么被折叠?



