熵计算公式

本文深入探讨了信息论中的三个核心概念:熵、相对熵(即KL散度)与交叉熵。熵衡量了随机变量的不确定性,相对熵比较了两个概率分布的差异,而交叉熵用于评估两个概率分布之间的差异性信息。了解这些概念对于理解机器学习和数据科学中的损失函数至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如果一个随机变量XX的可能取值为X={x1,x2,…,xn}X={x1,x2,…,xn},对应的概率为p(X=xi)(i=1,2,…,n)p(X=xi)(i=1,2,…,n),则随机变量的熵定义为
在这里插入图片描述
相对熵
相对熵又称Kullback-Leible散度(即KL散度)。
设p(x)和q(x)是取值的两个概率概率分布,则p对q的相对熵为
在这里插入图片描述
交叉熵
交叉熵(Cross Entropy),主要用于度量两个概率分布间的差异性信息。对一个离散随机变量的两个概率分布P和Q来说,他们的交叉熵定义为:
在这里插入图片描述
可以看出它和相对熵的差别和联系:
在这里插入图片描述

### 图像信息熵计算公式 在IT领域中,图像信息熵的计算通常基于概率论和信息理论的基础概念。对于一幅图像而言,其信息熵可以用来衡量该图像所包含的信息量或者不确定性程度。 #### 定义与公式 图像信息熵 \( H(X) \) 的定义如下: \[ H(X) = -\sum_{x \in \chi} p(x) \log_2 p(x) \] 其中: - \( x \) 表示图像灰度级的一个可能取值; - \( \chi \) 是所有可能灰度级别的集合; - \( p(x) \) 是灰度级别 \( x \) 出现的概率[^3]。 此公式表明,信息熵是对每个灰度级别出现的概率与其对应的对数函数乘积求和后的负值。通过这种方式,能够量化图像像素分布的随机性和复杂性。 #### 应用场景 信息熵的概念广泛应用于图像压缩、编码优化等领域。例如,在熵编码技术中,为了最小化存储需求并最大化效率,需要依据上述公式来评估不同方案的有效性。如果某个特定灰度值更频繁地出现在图像里,则应为其分配较短的码字长度;反之亦然。 ```python import numpy as np from scipy.stats import entropy def calculate_image_entropy(image_array): hist, _ = np.histogram(image_array.flatten(), bins=256, range=(0, 255)) probabilities = hist / np.sum(hist) non_zero_probabilities = probabilities[np.nonzero(probabilities)] image_entropy = -np.sum(non_zero_probabilities * np.log2(non_zero_probabilities)) return image_entropy # Example usage with a dummy grayscale image array image_data = np.random.randint(0, 256, size=(100, 100), dtype=np.uint8) entropy_value = calculate_image_entropy(image_data) print(f"The calculated entropy of the image is {entropy_value}") ``` 以上Python代码片段展示了如何根据给定的二维数组形式表示的一幅灰阶图片数据集,运用前面提到过的数学表达式手动完成一次具体的数值运算过程演示[^2]。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值