一.信息熵
信息是个很抽象的概念。人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。信息熵是通过一组具有任意概率的事件集合来定义的。
1.理论提出 信息论之父 C. E. Shannon 在 1948 年发表的论文“通信的数学理论( A Mathematical Theory of Communication )”中指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。 Shannon 借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式。 2.基本内容 
二.求解
一串消息包含A,B,C,D,E共5类符号,其内容是AABBBBAAAACCCCCCCCCEEEEEEDDDDEEEEEEEEEEEEE, 请问其信息熵是多少?如果分别采用香农-凡诺编码,霍夫曼编码,压缩率分别是多少?
1.信息熵 在AABBBBAAAACCCCCCCCCEEEEEEDDDDEEEEEEEEEEEEE中总共含42个符号,其中6个A,4个B,9个C,4个D,19个E,其对应的概率分别为1/7,2/21,3/14,2/21,19/42。然后我们进行对其概率分布,计算其信息熵为2.043
2.香农-凡诺编码 基本介绍香农编码 计算得 香农编码 2.1905

3.霍夫曼编码 数据结构中学习过霍夫曼编码相关算法,利用二叉树层层算。
计算得 霍夫曼编码 2.0714
三.RGB图像字节
一幅1024*768的24位RGB彩色图像一共在内存中占有多少字节? 如果将其保存为非压缩格式的BMP文件,文件有多少字节?

本文介绍了信息熵的概念,源于C. E. Shannon的通信理论,用于衡量信息的不确定性。内容包括理论背景、信息熵的计算,以及在AABBBBAAAACCCCCCCCCEEEEEEDDDDEEEEEEEEEEEEE字符串中的应用。同时,探讨了香农-凡诺编码和霍夫曼编码的压缩率,分别计算得出信息熵和编码长度。
最低0.47元/天 解锁文章
575

被折叠的 条评论
为什么被折叠?



