如果一个随机变量XX的可能取值为X={x1,x2,…,xn}X={x1,x2,…,xn},对应的概率为p(X=xi)(i=1,2,…,n)p(X=xi)(i=1,2,…,n),则随机变量的熵定义为
相对熵
相对熵又称Kullback-Leible散度(即KL散度)。
设p(x)和q(x)是取值的两个概率概率分布,则p对q的相对熵为
交叉熵
交叉熵(Cross Entropy),主要用于度量两个概率分布间的差异性信息。对一个离散随机变量的两个概率分布P和Q来说,他们的交叉熵定义为:
可以看出它和相对熵的差别和联系:
熵计算公式
最新推荐文章于 2025-04-03 18:44:56 发布