【ML】类神经网络训练不起来怎么办 Loss of Classification 6 p19-p22
1. Loss of Classification中Mean Square Error (MSE)与Cross-entropy对比
1.1 交叉熵(Cross Entropy)
交叉熵(Cross Entropy)是信息论中一个重要的概念,用来衡量两个概率分布之间的差异。它可以用来评估一个模型对数据的预测准确性。
定义:
给定两个概率分布 P 和 Q,它们的交叉熵定义为:
H ( P , Q ) = − Σ p ( x ) ∗ l o g ( q ( x ) ) H(P, Q) = -Σp(x) * log(q(x)) H(P,Q)=−Σp(x)∗log(q(x))
其中:
H ( P , Q ) H(P, Q) H(P,Q) 表示 P 和 Q 之间的交叉熵
p ( x ) p(x) p(x) 表示事件 x 在 P 分布下的概率
q ( x ) q(x) q(

本文深入探讨了交叉熵在分类问题中的重要性,对比了与Mean Square Error (MSE)的区别,并解释了为什么在神经网络训练中通常选择交叉熵作为损失函数。同时介绍了Soft-max函数在多分类任务中的作用,帮助模型将输出转换为概率分布。
最低0.47元/天 解锁文章
18万+

被折叠的 条评论
为什么被折叠?



