Conditional mutual information 条件互信息

本文深入浅出地介绍了信息论中的基本概念,包括信息量I、熵E、联合熵及互信息等内容,并通过直观的图形解释了这些概念的含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

主要参考wiki,
另外参考下面博客的联合熵部分的感性理解,对联合熵的描述非常形象生动。
http://blog.youkuaiyun.com/pipisorry/article/details/51695283

  • 首先理解信息(I)的定义
    I 是衡量信息w的量,只和w发生的概率P(w)有关,认为

    I(w)=f(P(w))

    并且满足公式
    I(A,B)=I(A)+I(B)P(A,B)=P(A)P(B)

    若A,B是独立事件,那么AB同时发生的信息量是AB分别发生的信息量之和,而概率则是求乘积。
    那么满足公式的加法和乘法条件的 f(.) 就是 log(.) 函数了。
    所以定义 I(w)=log(P(w))
    详细展开:
    https://en.wikipedia.org/wiki/Self-information
    这里写图片描述
    这里写图片描述

  • 熵Entropy(E)的定义
    熵就是信息的期望,所以要做一个 E(w)=P(w)I(w)=P(w)log(P(w))
    注意到当P(w)等于0时,由于在P(w)极限逼近0时,P(w)log(P(w))等于0,所以规定

    if:P(w)=0,then:P(w)log(P(w))=0

    这里写图片描述
    这里写图片描述

  • joint entropy 联合熵
    描述一个变量集(这个集合包括X,Y)的不确定性
    注意H(X,Y)理解为描述X和Y要用到的信息量,那么H(X,Y)包括要来描述X的H(X)+已知X要额外描述Y需要增加的H(Y|X)。而I(X;Y)可以理解为描述X和Y信息关联程度的量。
    换到图上,H(X,Y)是两个圆覆盖的总面积,I(X,Y)是重叠面积,H(X|Y)和H(Y|X)是两个圆互不交的地方。
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述

  • mutul information 互信息
    描述X和Y的之间的依赖程度。如果X和Y完全独立,那么 p(x,y)=p(x)p(y) ,则log(1)=0,最后的I(X;Y)=0,如果存在依赖,那么I能够描述出依赖的程度;
    这里写图片描述
    这里写图片描述
    这里写图片描述

  • 条件互信息
    在条件(Z)发生时的条件互信息
    这里写图片描述
    这里写图片描述

总结

  • 信息I(w)=f(P(I(w)))
  • 信息发生的概率P(I(w))
  • 信息*概率=熵(其实就是信息的期望)
  • f(.)=Klog(.)
  • 优美的加法(I(w)之间)乘法(P(I(w))之间),他们的联系就是log,是log让他们直接加法变成了乘法。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值