机器学习中相关信息度量的备忘录
自信息
自信息(self-information)用来衡量单一随机事件发生时所包含的信息量的多寡。
I(pi)=−log(pi) I ( p i ) = − l o g ( p i )
香农熵
香农熵是随机事件X的所有可能结果的自信息期望值。
H(x)=Ex∼P[I(x)]=−∑i=1np(xi)I(xi)=−∑i=1np(xi)logb(p(xi)) H ( x ) = E x ∼ P [ I ( x ) ] = − ∑ i = 1 n p ( x i ) I ( x i ) = − ∑ i = 1 n p ( x i ) l o g b ( p ( x i ) )
互信息
互信息用来表示随机事件X和随机事件Y之间的相关性。
I(X,Y)=H(X)+H

本文是关于机器学习中信息度量的备忘录,包括自信息、香农熵、互信息、条件熵、交叉熵和KL散度的介绍。重点讨论了KL散度的不对称性及其在参数估计中的应用,通过高斯分布拟合示例进行解释。
最低0.47元/天 解锁文章

1010

被折叠的 条评论
为什么被折叠?



