背景
在信息论中,联合熵和条件熵是两个与随机变量和概率分布相关的重要概念,用于衡量不确定性和信息量。
联合熵(Joint Entropy):
联合熵是描述多个随机变量的联合概率分布的不确定性的度量。如果有两个随机变量X和Y,它们的联合概率分布为P(X, Y),则联合熵H(X, Y)表示这两个随机变量一起的不确定性。联合熵的计算公式为:
H(X, Y) = -ΣΣ [P(x, y) * log2(P(x, y))]
H ( X , Y ) = − ∑ x ∑ y P ( x , y ) log 2 ( P ( x , y ) ) H(X, Y) = -\sum_{x}\sum_{y} P(x, y) \log_2(P(x, y)) H(X,Y)<