好文推荐:链接
交叉熵(Cross Entropy)函数和KL散度(Kullback-Leibler Divergence)函数都是用于度量概率分布之间的相似性或差异性的函数。它们在信息论和机器学习中都有着重要的应用,尤其在深度学习中常用于损失函数的设计和模型训练中。
1. 交叉熵(Cross Entropy):
交叉熵是用来度量两个概率分布之间的差异性的函数,它的计算方式如下:
对于离散型分布:
H ( p , q ) = − ∑ x p ( x ) log ( q ( x ) ) = ∑ x p ( x ) log ( 1 q ( x ) ) H(p, q) = -\sum_{x} p(x) \log(q(x)) =\sum_{x}p(x)\log(\frac{1}{q(x)}) H(p,q)=−x∑p(x)log(q(x))=x∑p(x)log(