几个结论:
1)信息熵:编码方案完美时,最短平均编码长度的是多少。
2)交叉熵:编码方案不一定完美时(由于对概率分布的估计不一定正确),平均编码长度的是多少。 平均编码长度 = 最短平均编码长度 + 一个增量
3)相对熵:编码方案不一定完美时,平均编码长度相对于最小值的增加值。(即上面那个增量)
KL散度
Kullback-Leibler Divergence,即K-L散度,是一种量化两种概率分布P和Q之间差异的方式,又叫相对熵。在概率学和统计学上,我们经常会使用一种更简单的、近似的分布来替代观察数据或太复杂的分布。K-L散度能帮助我们度量使用一个分布来近似另一个分布时所损失的信息量。
数据的熵
K-L散度源于信息论。信息论主要研究如何量化数据中的信息。最重要的信息度量单位是熵Entropy,一般用H表示。分布的熵的公式如下: H = − ∑ i = 1 N p ( x i ) log p ( x i ) H = - \sum_{i=1}^{N}p(x_i)\log p(x_i) H=−i=1∑Np(xi)logp(xi)
上面这个对数没有确定底数,可以是2、e或者10等,以2为底计算的H值可以看作是编码信息所需要的最少二进制位个数。
KL散度度量信息损失
设