1.信息量
含义:对信息的度量。概率越小,信息量越大。
公式:h(xi)=−log2p(xi)h(x_i)=-log_2p(x_i)h(xi)=−log2p(xi)
或者h(xi)=log21p(xi)h(x_i)=log_2\frac{1}{p(x_i)}h(xi)=log2p(xi)1
p(xi)p(x_i)p(xi)为事件xix_ixi发生的概率大小,一般所用底数为2。
根据以上公式可以看出,一个事件发生的概率越高,其对应的信息量就越低;概率越小,对应的信息量约大。
2.熵
含义:熵是信息量的期望。反应的是不确定性。概率越小,熵越大。
公式:H(X)=−∑i=1np(xi)logbp(xi)H(X)=-\sum_{i=1}^{n}p(x_i)log_bp(x_i)H(X)=−∑i=1np(xi)logbp(xi)
或者H(X)=∑i=1np(xi)logb1p(xi)H(X)=\sum_{i=1}^{n}p(x_i)log_b\frac{1}{p(x_i)}H(X)=∑i=1np(xi)logbp(xi)1
X=x1,x2……xnX = {x_1,x_2……x_n}X=x1,x2……xn
设limp−>0logp=0lim_{p->0}logp=0limp−>0