一、信息论基础
1.熵:信息熵代表的是随机变量或整个系统的不确定性,熵越大,随机变量或系统的不确定性就越大。即描述的是有关事件 X X X的所有可能结果的自信息期望值: H ( X ) = − ∑ i = 1 n p i l o g p i H(X)=-\sum\limits_{i=1}^{n}p_{i}logp_{i} H(X)=−i=1∑npilogpi
其中n代表事件 X X X的所有n种可能的取值, p i p_i pi代表了事件X为i时的概率。
自信息: I ( x ) = − l o g P ( x ) I(x)=-logP(x) I(x)=−logP(x)
2.联合熵:二维随机变量XY的联合熵(joint entropy)定义为联合自信息的数学期望,它是二维随机变量XY的不确定性的度量: H ( X , Y ) = − ∑ x ∈ χ ∑ y ∈ ρ p ( x , y ) l o g p ( x , y ) = ( l o g 1 p ( x , y ) ) H(X,Y)=-\sum\limits_{x\in\chi}\sum\limits_{y\in\rho}p(x,y)logp(x,y)=(log\frac{1}{p(x,y)}) H(X,Y)=−x∈χ∑y∈ρ∑p(x,y)log