1.直观理解
题外话
香农(信息论创始人)认为,比特是测量信息的单位,本质上,信息和长度、重量这些物理单位一样,是一种可以测量和规范的东西。对于通信系统而言,其传递的信息具有随机性,所以定量描述信息应基于随机事件。任何信息都存在冗余,冗余的大小与信息中每个符号(基本元素)的出现概率或者说不确定性有关。
通常,一个信息源发送什么符号是不确定的,衡量它可以根据其出现的概率来度量。极限条件下,一个信源只发送一个符号,即发送内容是确定的,概率100%,此时接收方无法从信号中获取任何信息,信息量为零。
香农提出信息熵来定量衡量信息的大小,假设随机事件发生的概率为pip_ipi,信息熵函数H(X)H(X)H(X)必须满足以下三个性质:
- 单调性:概率越大的事情(即随机变量XXX某个事件xix_ixi的p(xi)p(x_i)p(xi)较大),信息熵越小,即若P(X=A)>P(X=B),则H(X=A)<H(X=B);
- 非负性:一个事件的信息熵不能为负;
- 累加性:多个随机事件同时发生存在的总不确定性的度量等于格式件不确定性度量的和,即H(X=A,X=B)=H(X=A)+H(X=B)。
香农从数学上证明了,严格满足上述三个条件的随机变量不确定性度量函数具有唯一形式:
H(X)=−C∑x∈Xp(x)logp(x) H(X)=-C\sum\limits_{x\in X}p(x)\log p(x) H(X)=