信息量和互信息

本文介绍了信息论中的基本概念,包括自信息量、信息熵、条件熵、联合熵及互信息的概念及其计算方法。通过直观的例子帮助理解这些概念,并解释了它们的实际意义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

记录学习分享

理解信息量
https://blog.youkuaiyun.com/tsyccnh/article/details/79163834

  • 自信息量:
    -I(xi) = -log( P(xi) )
  • 信息熵:(自信息量的期望)
    H(X) = -∑P(xi) * log( P(xi) )
  • 条件熵:(条件信息量的期望。前边是xi和yj同时发生的概率,就是求期望)
    H(X|Y) = -∑P(xi, yj) * log( P(xi | yj) )
  • 联合熵:
    H(X, Y) = -∑P(xi, yj) * log( P(xi , yj) )
  • 互信息:
    (互信息= 先验不确定性H(X) – 后验不确定性H(X|Y) = 不确定性减少量)
    I(X;Y) = H(X)-H(X|Y) = H(Y)-H(Y|X) = H(X) + H(Y) – H(X,Y)

互信息公式这么定义的含义:
理解1:原来我对X有些不确定,不确定性为H(X),告诉我Y后我对X不确定性变为H(X|Y), 这个不确定性的减少量就是X,Y之间的互信息I(X;Y)=H(X)-H(X|Y)。

参考 https://www.zhihu.com/question/24059517

理解2:X,Y的信息熵之和H(X)+H(Y),减去其X,Y同时发生的联合信息熵H(X,Y),如果为0,说明X,Y相互独立、不相关;如果不为0,差值部分就是由于X、Y相关性带来的信息量消减,也就是互信息。

互信息的推导:
在这里插入图片描述
第三等式推导第四等式:
在这里插入图片描述

### 互信息量与皮尔逊相关系数的概念 #### 皮尔逊相关系数概念 皮尔逊相关系数(Pearson Correlation Coefficient),简称皮尔逊 \(r\),是一种衡量两个变量之间线性关系强度方向的统计指标。该系数取值范围在 \([-1, 1]\),当接近于1时表示强正向线性关系;接近-1表示强负向线性关系;而接近0则意味着几乎没有线性关系[^2]。 ```python import numpy as np from scipy.stats import pearsonr def calculate_pearson(x, y): corr, _ = pearsonr(x, y) return corr ``` #### 互信息量概念 互信息量(Mutual Information, MI) 是一种源自信息论的信息度量方式,用来量化两个随机变量间共享的信息多少。不同于仅限于检测线性依赖性的皮尔逊相关系数,MI能够捕捉任何形式的相关性——无论是线性还是非线性。其基本思想在于测量知道其中一个变量后能减少另一个变量不确定性程度的程度。 --- ### 主要区别 | 特征 | 皮尔逊相关系数 | 互信息量 | | --- | -------------- | -------- | | **适用范围** | 只适用于评估线性关系 | 能够处理任意形式的关系,包括但不限于线性非线性 | | **数值意义** | 表达的是两组数据变化趋势的一致性(-1到+1)| 描述的是共同携带了多少比特的信息(>=0)| | **计算复杂度** | 计算简单快速 | 需要估计概率分布函数,在高维情况下可能变得非常困难 | --- ### 使用场景对比 对于具有明显线性特征的数据集来说,使用皮尔逊相关系数可以提供直观的结果并易于解释。然而,在面对更复杂的非线性模式时,则更适合采用互信息量来探索潜在联系。特别是在图像识别、自然语言处理等领域内,由于存在大量非线性因素影响,因此更多时候会选择利用互信息作为评价标准之一[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值