【信息论基础第三讲】再谈离散信源的信息测度之熵的性质多符号信源的信息测度

一、Piece Of Cake

1、离散信源X的熵是H(X)是一个常数而不是一个变量

解释:离散信源的熵也就是自信息I(X)的数学期望,即H(X) = E[I(Xi)],而通过概率论的知识我们知道数学期望是一个常数,故熵也是一个常数。

2、八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率是6000bit/s

解释:

22aac3e524d24a1e87c97a6614d317ea.jpeg

3、离散信源X服从等概分布时熵最大。

解释一:从信息熵的定义式的角度出发

4a91ee03d7ef4f238dbef031d8d0da93.jpeg解释二:从熵朴素的物理意义来看

依稀记得高中物理学习热学时第一次接触熵的概念,当时理解的是分子不规则运动的混乱程度,在信息熵来看,我们可以类比为信源输出前信源的输出的平均不确定度,而什么样的信源最不确定,当然是输出什么的概率都一样(信源服从等概分布),没有任何概率大小的偏袒,此时熵最大。

4、H(XY) =< H(X) + H(Y)

解释:用维拉图表示直观形象

b8a6d7ffd43a4839b13d8e960f1d9973.jpeg

二、熵的性质

 

1、非负性

0c1d359c598148eba6def9c5d07f0c34.png

解释:

3a7132b4a6c94a03b6aefb5e870f1780.png

 

2、对称性

5db00cacb7624d3ea49f4c889a5ab23f.png

解释:

信源的熵只与概率空间的总体结构有关,而与各个概率分量对应的状态顺序无关。

试想各个概率分量组成了概率空间,我们用信源熵来刻画概率空间的不确定度,每个概率向量就好像分子,当然可以运动,发生运动意味着状态顺序发生了变化,但是整体信源的平均不确定度还是不变的,重点把握平均的概念。 

3、确定性

6e9ee320a67e430fb116f51d88bb3a5e.png

当信源空间中任一概率分量等于1,相当于是这一个概率分量占满了整个space空间,自然其他的概率分量必为0,这个时候信源空间一点也不混乱,完全确定就是这个概率分量为1,对应的熵为0,信源也就成为了一个确知信源。

4、扩展性

8dc60db7c3074fb28f36ec74b3138cfc.png

 解释:信源空间中增加某些概率很小的符号,其概率接近于0,就好比分子等级的信源空间加入了原子等级的不确定度微小到可以忽略,自然整个信源空间的熵还是由分子等级那些不确定度主导,近似的信源熵视为不变。

5、可加性

0c7fc7ac854141afaeecafa1f614f136.png

d93bb5cf352a44bc815ab3903b45f41c.png

 

 解释一:维拉图(以X、Y不相互独立为例)

fc01cfb4e15c412a82f4fc0bf0c5f911.jpg

 

解释二:定义证明

49653a89523c44e5894df73f92507891.jpeg

同理: 

a620556a2fac44c681d77b2ae9a7733a.jpeg 

6、极值性

4ca836a4538f4ea29631537fbbb37b0a.png

信源X中包含着K个不同离散消息时,熵H(X) <= logK,当且仅当X中各个消息出现概率相等时等号成立。即等概信源的不确定性最大,具有最大熵。关于类比熵通俗的解释同前面。

基本不等式:

128b896133644e26b4a60eb6021e0d40.png

 基本不等式推广:

624e074883c64c739a7056988ce96bea.png

上凸函数:

8f2c24979704457cb2b89ca0e885cb38.png 

下凸函数:

0216ba1eb7c24881bed86cbe0fbd697a.png

7、唯一性

存在这样的不确定性度量,它是概率分布p1,p2,p3...pk的函数f(p1,p2,...pk),且该函数应满足:对称性,极值性,可加性,扩展性,它的形式是唯一的。

三、多符号信源的信息测度

1、离散无记忆信源

d0090f9bac30435e8845c3f1d856b573.png

0988613f5673425590b8f9b98ec5b84c.png

2、离散有记忆信源

(1)实例引入

999e32d869604c04ba83252affaaa64b.png

ca457cdfc1ee40d3a94145035ee73329.png

2c01cd614675455881007d518dc1ff22.png

93cc82a592eb4be99dfde48fd79f56b3.jpeg 

发现信源信息熵H(X)比平均符号熵要大,可以有两种解释方式,一种是代数解释:

f94ae3b6fc1f4fccaf2e30a8c7458ccf.png

另一种是意义解释:

因为信源是有记忆的,所以平均符号熵意味着符号之间具有着关联性,这时我们再看信息熵的意义,因为符号之间有关联度,即表示的信息不确定度就小了,自然小于信源的信息熵。

(2)离散信源的序列熵和极限熵

8a65392007f04684a0f70da6e06a26eb.png

(3)离散有记忆信源的特点

9f6ca3dadbde4959924ca9245df7401d.png

 

6f7418bec27f4a5c9667a4e9e8d198dd.png

4aa603f997294477aa9a39beb8fe5b53.png

7f91df1949a14c93ab048f6c5cfa1e52.png

b33c92396dad4af0b376919a2b0f0ca6.png

dcb312a7f0c64d5490fbaf8cda634d77.png

9c0de5622dba4214ab1226f414f471bb.png

00b827a045d44bbc90be2027fdb4f46e.png

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值