信息熵,联合熵,交叉熵,相对熵的概念与区别

本文深入解析了信息论中熵的概念,包括熵、联合熵、条件熵、互信息、交叉熵和相对熵的定义与计算公式,阐述了它们在衡量不确定性、相似性和信息增益中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

各种熵之间的关系

  • H(X, Y) =  H(x) U H(Y);  —— 联合熵的定义:两个随机变量X,Y的联合分布,可以形成联合熵,是并集
  • H(X|Y) = H(X, Y) - H(Y); H(Y|X) = H(X, Y) - H(X) —— 条件熵的定义
  • H(X|Y) = H(X) - I(X, Y); H(Y|X) = H(Y) - I(X, Y)
  • I(X, Y) = H(X) - H(X|Y) = H(X) + H(Y) - H(X, Y) —— 也可以作为互信息的定义
  • 熵:H(X)=−∑xp(x)lnp(x)
    • 衡量不确定性的度量
  • 联合熵: H(X,Y)=−∑x,yp(x,y)lnp(x,y)
    • (X,Y)在一起时的不确定性度量
  • 条件熵: H(X,Y)−H(X)=−∑x,yp(x,y)lnp(y|x)
    • X确定时,Y的不确定性度量
    • 在X发生是前提下,Y发生新带来的熵。
  • 交叉熵:H(p,q)=−∑xp(x)lnq(x)
    • 衡量p与q的相似性
  • 相对熵: KL(p||q)=−∑xp(x)lnq(x)p(x)
    • p与q不相似的度量
    • KL(p||q)=−∑xp(x)lnq(x)p(x)
  • H(X|Y) <= H(X):
    • H(X)表示X的不确定度;H(X|Y)表示给定Y的情况下,X的不确定度。
    • 如果X与Y完全独立,则二者相等(给不给Y对X能给出多少信息无关);
    • 而如果X与Y不是独立的,则给定Y之后会降低X的熵,即X的不确定性会降低

参考博客:

               联合熵:https://max.book118.com/html/2016/1202/67619413.shtm

               信息熵,条件熵,相对熵:https://www.cnblogs.com/kyrieng/p/8694705.html#name2

                互信息:https://blog.youkuaiyun.com/lk7688535/article/details/52529610

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值