信息量,熵,联合熵,互信息,条件熵,相对熵(KL散度),交叉熵(cross entropy)

本文详细介绍了信息论中的关键概念,包括信息量(衡量事件发生的不确定性),熵(信息的期望值,反映系统的不确定性),联合熵(两个或多个变量的熵),互信息(衡量变量间的依赖性),条件熵(在已知一个变量条件下另一个变量的不确定性),相对熵(KL散度,表示两个概率分布的差异)和交叉熵(在机器学习中作为目标函数)。这些概念在数据处理和机器学习中扮演着重要角色。

1.信息量

含义:对信息的度量。概率越小,信息量越大。

公式:h(xi)=−log2p(xi)h(x_i)=-log_2p(x_i)h(xi)=log2p(xi)
或者h(xi)=log21p(xi)h(x_i)=log_2\frac{1}{p(x_i)}h(xi)=log2p(xi)1

p(xi)p(x_i)p(xi)为事件xix_ixi发生的概率大小,一般所用底数为2。

根据以上公式可以看出,一个事件发生的概率越高,其对应的信息量就越低;概率越小,对应的信息量约大。

2.熵

含义:熵是信息量的期望。反应的是不确定性。概率越小,熵越大。

公式:H(X)=−∑i=1np(xi)logbp(xi)H(X)=-\sum_{i=1}^{n}p(x_i)log_bp(x_i)H(X)=i=1np(xi)logbp(xi)
或者H(X)=∑i=1np(xi)logb1p(xi)H(X)=\sum_{i=1}^{n}p(x_i)log_b\frac{1}{p(x_i)}H(X)=i=1np(xi)logbp(xi)1
X=x1,x2……xnX = {x_1,x_2……x_n}X=x1,x2xn
limp−>0logp=0lim_{p->0}logp=0limp>0

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值