熵、联合熵和条件熵之间有以下几个基本且重要的关系式,它们构成了信息论中分析多变量系统的基础

离散信源的信息度量是信息论中的核心内容,主要包括熵、条件熵、联合熵(共熵)和互信息量。这些概念用于描述随机变量的不确定性以及变量之间的信息关系。

  1. 熵(Entropy)
    熵是衡量一个离散随机变量不确定性的度量。对于离散信源 $ X $,其概率分布为 $ P(x) $,则熵定义为:

    H(X)=−∑x∈XP(x)log⁡2P(x) H(X) = -\sum_{x \in \mathcal{X}} P(x) \log_2 P(x) H(X)=xXP(x)log2P(x)

    单位为比特(bit)。熵越大,表示信源的不确定性越高。

  2. 联合熵(Joint Entropy, 共熵)
    对于两个离散随机变量 $ X $ 和 $ Y $,它们的联合熵表示两个变量整体的不确定性:

    H(X,Y)=−∑x∈X∑y∈YP(x,y)log⁡2P(x,y) H(X,Y) = -\sum_{x \in \mathcal{X}} \sum_{y \in \mathcal{Y}} P(x,y) \log_2 P(x,y) H(X,Y)=xXyYP(x,y)log2P(x,y)

    联合熵满足:$ H(X,Y) \leq H(X) + H(Y) $,当且仅当 $ X $ 与 $ Y $ 独立时取等号。

  3. 条件熵(Conditional Entropy)
    条件熵表示在已知一个随机变量的前提下,另一个变量仍具有的不确定性:

    H(Y∣X)=∑x∈XP(x)H(Y∣X=x)=−∑x,yP(x,y)log⁡2P(y∣x) H(Y|X) = \sum_{x \in \mathcal{X}} P(x) H(Y|X=x) = -\sum_{x,y} P(x,y) \log_2 P(y|x) H(YX)=xXP(x)H(YX=x)=x,yP(x,y)log2P(yx)

    且有关系:
    H(X,Y)=H(X)+H(Y∣X)=H(Y)+H(X∣Y) H(X,Y) = H(X) + H(Y|X) = H(Y) + H(X|Y) H(X,Y)=H(X)+H(YX)=H(Y)+H(XY)

  4. 互信息量(Mutual Information)
    互信息量衡量两个随机变量之间共享的信息量,即一个变量能提供关于另一个变量的信息多少:

    I(X;Y)=∑x,yP(x,y)log⁡2P(x,y)P(x)P(y) I(X;Y) = \sum_{x,y} P(x,y) \log_2 \frac{P(x,y)}{P(x)P(y)} I(X;Y)=x,yP(x,y)log2P(x)P(y)P(x,y)

    互信息与熵的关系为:
    I(X;Y)=H(X)−H(X∣Y)=H(Y)−H(Y∣X)=H(X)+H(Y)−H(X,Y) I(X;Y) = H(X) - H(X|Y) = H(Y) - H(Y|X) = H(X) + H(Y) - H(X,Y) I(X;Y)=H(X)H(XY)=H(Y)H(YX)=H(X)+H(Y)H(X,Y)

    当 $ X $ 与 $ Y $ 独立时,$ I(X;Y) = 0 $;若完全相关,则互信息等于各自的熵。


熵、联合熵和条件熵之间有以下几个基本且重要的关系式,它们构成了信息论中分析多变量系统的基础:

  1. 联合熵等于熵加条件熵
    对于两个离散随机变量 $ X $ 和 $ Y $,有:
    H(X,Y)=H(X)+H(Y∣X) H(X,Y) = H(X) + H(Y|X) H(X,Y)=H(X)+H(YX)
    同样也成立:
    H(X,Y)=H(Y)+H(X∣Y) H(X,Y) = H(Y) + H(X|Y) H(X,Y)=H(Y)+H(XY)
    这表示两个变量的总体不确定性等于一个变量的不确定性加上在已知该变量时另一个变量的剩余不确定性。

  2. 条件熵小于等于无条件熵
    H(Y∣X)≤H(Y) H(Y|X) \leq H(Y) H(YX)H(Y)
    当且仅当 $ X $ 与 $ Y $ 独立时取等号。这说明知道另一个变量的信息不会增加原变量的不确定性(通常会减少)。

  3. 联合熵的上界(独立情形)
    H(X,Y)≤H(X)+H(Y) H(X,Y) \leq H(X) + H(Y) H(X,Y)H(X)+H(Y)
    等号成立当且仅当 $ X $ 与 $ Y $ 统计独立。

  4. 对称性关系
    条件熵一般不具有对称性(即 $ H(X|Y) \ne H(Y|X) $),但通过联合熵可建立联系:
    H(X∣Y)=H(X,Y)−H(Y),H(Y∣X)=H(X,Y)−H(X) H(X|Y) = H(X,Y) - H(Y),\quad H(Y|X) = H(X,Y) - H(X) H(XY)=H(X,Y)H(Y),H(YX)=H(X,Y)H(X)

  5. 链式法则(Chain Rule)
    对多个随机变量 $ X_1, X_2, \dots, X_n $,联合熵可以展开为:
    H(X1,X2,…,Xn)=∑i=1nH(Xi∣Xi−1,…,X1) H(X_1,X_2,\dots,X_n) = \sum_{i=1}^n H(X_i | X_{i-1},\dots,X_1) H(X1,X2,,Xn)=i=1nH(XiXi1,,X1)
    这是上述两变量关系的推广。


在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Bol5261

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值