香农熵(Shannon entropy)
信息熵(又叫香农熵)反映了一个系统的无序化(有序化)程度,一个系统越有序,信息熵就越低,反之就越高。
如果一个随机变量X的可能取值为
相对熵(relative entropy)
所谓相对,自然在两个随机变量之间,又称互熵,Kullback–Leibler divergence(K-L 散度)等。
本文介绍了信息熵的概念,它是衡量系统无序程度的一种度量。对于随机变量,信息熵越低表明系统越有序;同时文章还介绍了相对熵,即Kullback-Leibler散度,用于衡量两个随机变量之间的差异。
信息熵(又叫香农熵)反映了一个系统的无序化(有序化)程度,一个系统越有序,信息熵就越低,反之就越高。
如果一个随机变量X的可能取值为
所谓相对,自然在两个随机变量之间,又称互熵,Kullback–Leibler divergence(K-L 散度)等。
4239

被折叠的 条评论
为什么被折叠?