互信息,互信息是一个随机变量包含另一个随机变量信息量的度量。熵可以看做是一个随机变量的自信息,用它可以描述随机变量的不确定度。
相对熵给出两个随机概率分布之间距离的度量。
本文介绍了互信息的概念,它是衡量一个随机变量包含另一个随机变量信息量的度量。此外,还讨论了相对熵,这是一种用于量化两个随机概率分布之间差异的度量。
互信息,互信息是一个随机变量包含另一个随机变量信息量的度量。熵可以看做是一个随机变量的自信息,用它可以描述随机变量的不确定度。
相对熵给出两个随机概率分布之间距离的度量。
转载于:https://www.cnblogs.com/macula7/archive/2009/02/27/1960851.html

被折叠的 条评论
为什么被折叠?