熵、条件熵、联合熵、互信息关系及例题

该博客探讨了在通过有误码率的信道(BSC)传输信息时,如何利用信息熵和互信息量来量化传输的可靠性。具体分析了接收到的单个数字和连续四个数字与原始消息之间的互信息量,展示了这些概念在通信错误分析中的实际应用。

在这里插入图片描述

离散变量 连续变量
H(X)=∑xi∈XP(xi)log⁡1P(xi)H(X)=\sum_{x_{i} \in X} P(x_{i}) \log \frac{1}{P(x_{i})}H(X)=xiXP(xi)logP(xi)1 H(X)=∫P(x)⋅log⁡1P(x)dxH(X)=\int P(x) \cdot \log \frac{1}{P(x)} d xH(X)=P(x)logP(x)1dx
H(X∣Y)=∑xi∈X∑yj∈YP(xi,yj)log⁡1P(xj∣yi)H(X \mid Y)=\sum_{x_{i} \in X} \sum_{y_{j} \in Y} P(x_{i}, y_{j}) \log \frac{1}{P(x_{j} \mid y_{i})}H(XY)=xiXyjYP(xi,y
好的,让我逐一解答你的问题。 1. 信息论中用来衡量信息量的一个指标,表示信息的不确定性或者信息的随机性。对于一个离散随机变量X,其的定义为:$H(X)=-\sum_{i=1}^{n}P(x_i)\log P(x_i)$,其中$n$是样本空间中不同的取值个数,$P(x_i)$是变量X取值为$x_i$的概率,$\log$是以2为底的对数。 2. 共:共是指两个随机变量的信息之和减去这两个随机变量的联合熵。对于两个离散随机变量X和Y,其共的定义为:$H(X,Y)=H(X)+H(Y)-H(X,Y)$。 3. 条件熵条件熵是指在已知随机变量Y的条件下,随机变量X的不确定性。对于两个离散随机变量X和Y,其条件熵的定义为:$H(X|Y)=\sum_{j=1}^{m}P(y_j)H(X|Y=y_j)$,其中$m$是Y的不同取值个数,$P(y_j)$是Y取值为$y_j$的概率,$H(X|Y=y_j)$是在Y取值为$y_j$的条件下,X的。 4. 平均互信息量:平均互信息量是指在已知随机变量Y的条件下,随机变量X与Y之间的关联程度。对于两个离散随机变量X和Y,其平均互信息量的定义为:$I(X;Y)=\sum_{i=1}^{n}\sum_{j=1}^{m}P(x_i,y_j)\log\frac{P(x_i,y_j)}{P(x_i)P(y_j)}$,其中$P(x_i,y_j)$是X和Y同时取值为$(x_i,y_j)$的概率,$P(x_i)$和$P(y_j)$分别是X和Y的概率。 5. 性质和关系:在信息论中,条件熵具有以下性质和关系: (1)条件熵的值都是非负数。 (2)当X和Y独立时,$H(X|Y)=H(X)$,$I(X;Y)=0$。 (3)当X和Y完全相关时,$H(X|Y)=0$,$I(X;Y)=H(X)=H(Y)$。 (4)根据条件熵的定义,可以得到的链式法则:$H(X_1,X_2,...,X_n)=\sum_{i=1}^{n}H(X_i|X_1,X_2,...,X_{i-1})$。 (5)根据平均互信息量的定义,可以得到以下关系:$I(X;Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)$。 6. 计算例题:假设有两个二进制随机变量X和Y,其概率分布如下表所示: | X\Y | 0 | 1 | | --- | --- | --- | | 0 | 0.2 | 0.3 | | 1 | 0.4 | 0.1 | 则有: (1)X的:$H(X)=-\sum_{i=1}^{2}P(x_i)\log P(x_i)=-0.6\log 0.6 - 0.4\log 0.4\approx 0.971$ (2)Y的:$H(Y)=-\sum_{j=1}^{2}P(y_j)\log P(y_j)=-0.3\log 0.3 - 0.7\log 0.7\approx 0.881$ (3)X和Y的联合熵:$H(X,Y)=-\sum_{i=1}^{2}\sum_{j=1}^{2}P(x_i,y_j)\log P(x_i,y_j)=-0.2\log 0.2 - 0.3\log 0.3 - 0.4\log 0.4 - 0.1\log 0.1\approx 1.846$ (4)共:$H(X,Y)=H(X)+H(Y)-I(X;Y)$,因此$I(X;Y)=H(X)+H(Y)-H(X,Y)\approx 0.006$ (5)条件熵:$H(X|Y)=\sum_{j=1}^{2}P(y_j)H(X|Y=y_j)=-0.5\log 0.5 - 0.5\log 0.5\approx 1$ (6)平均互信息量:$I(X;Y)=\sum_{i=1}^{2}\sum_{j=1}^{2}P(x_i,y_j)\log\frac{P(x_i,y_j)}{P(x_i)P(y_j)}\approx 0.085$
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值