信息论与编码笔记

信息论与编码

统计信息的概念

香农信息是事物运动状态或存在方式的不确定性的描述

把消息变成适合信道传输的物理量,这种物理量就称为信号

通信的目的:实现信息的保真传输

DMS(Discrete memoryless source)离散无记忆信源

自信息(self information)表示信息量的大小

自信息与事件不确定性相关

I(ai)=logp(ai)I(ai)=−log⁡p(ai)

log2 :bit

loge :nat

log10 :hart

联合自信息

I(xy)=logp(xy)I(xy)=−log⁡p(xy)

条件自信息

I(x|y)=logp(x|y)I(x|y)=−log⁡p(x|y)

离散信源

1.信源的数学模型与分类

概率空间(离散信源):

[XP(x)][XP(x)]

X为样本空间,P(x)为概率函数,P(x)和为1,P大写

离散信源分为离散无记忆信源(DMS)和离散有记忆信源

离散无记忆信源(DMS):一维概率分布

离散有记忆信源:N维概率分布

概率空间(连续信源):

[Xp(x)][Xp(x)]

X为样本空间,p(x)为概率函数,p(x)积分为1,p小写

连续信源分为时间离散的连续源和随机波形源

随机波形源可以通过采样变成时间离散的连续源

2.信息熵

信源X的信息熵:信源输出各消息的自信息量I(ai)的数学期望

含义:

(A)熵值大小表示平均不确定性大小

(B)平均每个信源符号所携带的信息量

单位:bit/sig,nat/sig,hart/sig

H(X)=E(I(ai))=P(ai)logP(ai)H(X)=E(I(ai))=−∑P(ai)log⁡P(ai)

对于某给定信源,信息熵H(X)的取值是固定的

3.联合熵与条件熵

定义:联合集XY上,联合自信息的平均值定义为联合熵,即:

H(XY)=E[I(aibj)]=P(aibj)logP(aibj)H(XY)=E[I(aibj)]=−∑∑P(aibj)log⁡P(aibj)

N次扩展信源的数学模型

H(XN)=P(xNi)logP(xNi)=NH(X)H(XN)=−∑P(xiN)log⁡P(xiN)=NH(X)

定义:联合集XY上,条件自信息的平均值定义为条件熵,即:

H(X|Y)=E[I(ai|bj)]=P(aibj)logP(ai|bj)H(X|Y)=E[I(ai|bj)]=−∑∑P(aibj)log⁡P(ai|bj)

二维平稳信源熵

H(X2|X1)=P(ai)P(aj|ai)logP(aj|ai)H(X2|X1)=−∑P(ai)∑P(aj|ai)log⁡P(aj|ai)

4.熵的基本性质

1.熵的链式法则

H(XY)=H(X)+H(Y|X)H(XY)=H(X)+H(Y|X)

若X和Y统计独立,则

H(XY)=H(X)+H(Y)H(XY)=H(X)+H(Y)

N维联合信源熵的链式法则为

H(X1,X2,,Xn)=H(Xi|Xi1,,X1)H(X1,X2,…,Xn)=∑H(Xi|Xi−1,…,X1)

2.非负性、确定性(确知信源熵为0)、对称性(熵只与随机变量的总体结构有关)、扩展性(极小概率事件对熵几乎无影响)

H(X)0H(X)≥0

3.极值性

H(X1,X2,,Xn)logqH(X1,X2,…,Xn)≤log⁡q

当且仅当P(X1) = P(X2) = … = P(Xn) = 1/q,取等号

4.熵的独立界

H(X1,X2,,Xn)H(Xi)H(X1,X2,…,Xn)≤∑H(Xi)

H(X|Y)H(X)H(X|Y)≤H(X)

当且仅当X与Y相互独立时等号成立

5.信源的相关性和剩余度

信源剩余度定义:

设某q元信源的极限熵H∞(实际熵),则定义:

r=1HH0=1Hlogqr=1−H∞H0=1−H∞log⁡q

信源实际熵H∞与理想熵H0相差越大,信源的剩余度就越大,信源的效率也越低

关于信源剩余度的思考:

1.为提高信息传输效率,总希望减少剩余度

提高信源输出信息的效率:信源压缩

2.为提高信息传输可靠性,需要一定的剩余度

提高信息传输可靠性:信道编码

数据压缩的基本路径:从H∞到H0,从信源有记忆到信源无记忆,符号相关性减弱

预测编码:根据某种模型,利用以前的一个或几个样值,对当前的样本值进行预测,将样本实际值和预测值之差进行编码

结论1:
有记忆信源的冗余度寓于信源符号间的相关性中。去除它们之间的相关性,使之成为或几乎成为不相关的信源,其熵将增大

结论2:
离散无记忆信源的冗余度寓于符号概率的非均匀分布中。改变原来信源的概率分布,是指成为或接近等概率分布的信源,其熵将增大

6.离散信道

1.信道模型三要素

输入->信道->输出

[XP(x)]P(y|x)[YP(y)][XP(x)]→P(y|x)→[YP(y)]

P(y|x)信道转移概率

BSC:二元对称信道

P=[1ppp1p]P=[1−ppp1−p]

BEC:二元删除信道

P=[p01p1q0q]P=[p1−p001−qq]

2.平均互信息

信道疑义度(损失熵):

H(X|Y)=P(aibj)logP(ai|bj)H(X|Y)=−∑∑P(aibj)log⁡P(ai|bj)

含义:收到Y后关于X的尚存的平均不确定性

性质:

0H(X|Y)H(X)0≤H(X|Y)≤H(X)

平均互信息:

I(X;Y)=H(X)H(X|Y)=P(xy)logP(x|y)P(x)=P(xy)logP(y|x)P(y)=P(xy)logP(xy)P(x)P(y)I(X;Y)=H(X)−H(X|Y)=−∑∑P(xy)logP(x|y)P(x)=−∑∑P(xy)logP(y|x)P(y)=−∑∑P(xy)logP(xy)P(x)P(y)

含义:平均从Y获得的关于X的信息量(又称信道的信息传输率R)

互信息:

I(x;y)=logP(x|y)P(x)I(x;y)=logP(x|y)P(x)

xy小写,表示由随机事件y中获得具体关于x的信息,可正可负

关系

I(X;Y)=EXY|I(x;y)|I(X;Y)=EXY|I(x;y)|

平均互信息的性质

1.非负性

I(X;Y)0I(X;Y)≥0

说明:通过消息的传递可获得信息

当I(X;Y) = 0

全损信道:

H(X)=H(X|Y)H(X)=H(X|Y)

P(aibj)=P(ai)P(bj);P(bj)=P(bj|ai)P(aibj)=P(ai)P(bj);P(bj)=P(bj|ai)

2.极值性

0I(X;Y)H(X)0≤I(X;Y)≤H(X)

说明:通过传输获得的信息量不大于提供的信息量

当I(X;Y) = H(X)

无损信道:

H(X|Y)=0H(X|Y)=0

P(x|y)=01P(x|y)=0或1

3.对称性

I(X;Y)=I(Y;X)I(X;Y)=I(Y;X)

4.凸状性

定理:对于固定信道,平均互信息I(X;Y)是信源概率分布P(x)的 型凸函数

定理:对于固定信源分布,平均互信息I(X;Y)是信道传递概率P(y|x)的 型凸函数

I(X;Y)=[P(x),P(y|x)]I(X;Y)=∫[P(x),P(y|x)]

平均互信息与信源和信道相关

7.信道容量

信道容量的定义:
\[
C = ^{\max}{P(x)}{I(X;Y)} = I(X;Y)|{P(x) - P’(x)}
\]

C是给定的信道的最大的信息传输率

最佳输入分布时,I = C

二元对称信道BSCC=1H(p)C=1−H(p)

I(x;y)=H(w+p2wp)H(p)I(x;y)=H(w+p−2wp)−H(p)

无噪信道:P(y|x) = 0 或 1,I(X;Y) = H(Y)

C=maxH(Y)=logsC=maxH(Y)=log⁡s

最佳输入:使P(y) = 1s1s(输出等概)的输入分布

无损信道:P(x|y) = 0 或 1,I(X;Y) = H(X)

C=maxH(X)=logr|P(x)=1rC=maxH(X)=log⁡r|P(x)=1r

r为信道输入符号数目

二元删除信道BECC=max(1q)H(w)=1qC=max(1−q)H(w)=1−q ,当w = 1212 时,取最大值

离散对称信道的信道容量

1.对称信道的定义:若一个离散无记忆信道的信道矩阵中,每一行(或列)都是其他行(或列)的同一组元素的不同排列,则称此信道为离散对称信道

强对称信道(均匀信道)定义:若输入符号和输出符号个数相同,等于r,且信道矩阵为:

1ppr1...pr1pr11p...pr1............pr1pr1...1p[1−ppr−1...pr−1pr−11−p...pr−1............pr−1pr−1...1−p]

2.对称信道的性质

  • 噪声熵 H(Y|X)=H(p1...ps)H(Y|X)=H(p1′...ps′)

  • 当P(x)等概率分布时,输出也是等概率分布

平均互信息:I(X;Y)=H(Y)H(Y|X)=H(Y)H(p1...ps)I(X;Y)=H(Y)−H(Y|X)=H(Y)−H(p1′...ps′)

信道容量:C=maxI(X;Y)=maxH(Y)H(p1...ps)=logsH(p1...ps)C=maxI(X;Y)=maxH(Y)−H(p1′...ps′)=logs−H(p1′...ps′)

最佳输入:p(x)=1rp(x)=1r

并非所有信道,有p(y)等概

对均匀信道

C=logrH(1p,pr1,...,pr1)=logrplog(r1)H(p)C=log⁡r−H(1−p,pr−1,...,pr−1)=log⁡r−plog⁡(r−1)−H(p)

8.对称密钥密码

  • 加密解密算法公开
  • ke=kdke=kd (或相互容易推出)
  • 加密算法足够安全,仅依靠密文不可能译出明文
  • 安全性依赖于密钥的安全性,而不是算法安全性
  • 算法符号描述:Ek(M)=C,Dk(C)=MEk(M)=C,Dk(C)=M

实现的要求:

  • Diffusion(弥散):密文没有统计特征,明文一位影响密文的多位,密钥的一位影响密文的多位
  • Confusion(混淆):明文与密文、密钥与密文的依赖关系充分复杂
  • 实现混淆和弥散的基本方法:替代和置换

9.一般离散信道的信道容量

  • I(x;Y)I(x;Y)求C

一般离散信道的平均互信息I(X;Y)达到极大值(即等于信道容量)的充要条件是输入概率分布PiPi满足:

(a) I(xi;Y)=CxiPi0I(xi;Y)=C对所有xi其Pi≠0

(b) I(xi;Y)CxiPi=0I(xi;Y)≤C对所有xi其Pi=0

最佳输入不唯一

10.波形信源与波形信道

1.连续性信源的熵

信源X的相对熵(差熵):

H(X)=bap(x)logp(x)dxH(X)=−∫abp(x)log⁡p(x)dx

2.相对熵

h(X)=bap(x)logp(x)dxh(X)=−∫abp(x)log⁡p(x)dx

h(X|Y)=p(xy)logp(x|y)dxdyh(X|Y)=−∬p(xy)log⁡p(x|y)dxdy

h(XY)=p(xy)logp(xy)dxdyh(XY)=−∬p(xy)log⁡p(xy)dxdy

3.连续性信源熵的性质

(a)链式法则和独立界

h(XY)=h(X)+h(Y|X)=h(Y)+h(X|Y)h(XY)=h(X)+h(Y|X)=h(Y)+h(X|Y)

当X、Y独立时,h(XY) = h(X) + h(Y)

h(X|Y)h(X),h(Y|X)h(Y),h(XY)h(X)+h(Y)h(X|Y)≤h(X),h(Y|X)≤h(Y),h(XY)≤h(X)+h(Y)

(b)可为负

连续信源x[a,b]x∈[a,b]均匀分布,熵为:

h(X)=ba1balog(ba)dx=log(ba)h(X)=∫ab1b−alog⁡(b−a)dx=log⁡(b−a)

若b-a<1 ,则h(X) < 0

(c)变换性

坐标变换为线性变换,即:yi=bijxjyi=∑bijxj,则J∣J∣ = bij∣∣bij∣∣
有:h(Y)=h(X)+logbijh(Y)=h(X)+log∣∣bij∣∣

(d)凸状性

h(X)为p(x)的上凸函数,对某种p(x)的分布,h(X)可达到最大值

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值