熵,哈夫曼编码,二进制

计算机以及通信领域的熵一般指信息熵。本文介绍信息熵与哈夫曼编码的关系,以及二进制在信息熵和哈夫曼编码中的位置。

  1. 信息熵
    香农提出,把信息中的冗余排除后剩余的平均信息量就是信息熵。信息熵是对不确定性的度量。信息熵越大,不确定性越大。
    对于一个随机变量X,其信息熵为:
    H(X)=−∑xP(x)loga(P(x))H(X)=-\sum\limits_x P(x)log_a(P(x))H(X)=xP(x)loga(P(x)).
    当X服从均匀分布时,其不确定或熵最大。当X完全确定时,熵为0.
    其中aaa可以取任意值。
    在信息论中,香农于1948年发现信源编码定理或香农编码定理:
    给定信源X={xi}X=\{x_i\}X={xi}以及概率分布P(X)P(X)P(X), 进行某种无损K进制编码后得C={ci}C=\{c_i\}C={ci}, 则
    H(X)loga(K)≤E[L]≤H(X)loga(K)+1\frac{H(X)}{log_a(K)}\leq E[L]\leq\frac{H(X)}{log_a(K)}+1loga(K)H(X)E[L]loga(K)H(X)+1,
    其中L为对X进行编码后的随机编码C的长度。
    该定理说明,X进行无损编码后平均编码长度大于等于以K为底的信息熵。
    注:H(X)loga(K)\frac{H(X)}{log_a(K)}loga(K)H(X)相当于更换H(X)H(X)H(X)的底为KKK

  2. 哈夫曼编码
    基于香农编码定理思想,哈夫曼于1952年提出一种无损二进制编码方法,属于熵编码中的一种。
    其主要思想是通过构建最优二叉树(哈夫曼数),也就是带权路径长度最短的二叉树,来对字符集进行编码。哈夫曼证明其是一种最优二进制编码,也就是说路径之和最小。
    E[L]=∑P(si)∗Length(si)E[L]=\sum P(s_i)*Length(s_i)E[L]=P(si)Length(si)
    也就是说平均bit数最小。
    当概率是2的幂次方时,哈夫曼编码可达到信息熵所指明的最小平均bit数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值