负熵(看了好久,竟然这么简单,哎!…

本文介绍了熵的基本概念,作为衡量体系混乱程度的指标,在数据分析中有着广泛应用。讨论了概率与信息的关系,指出事件发生的概率越小,带来的信息量越大。同时,阐述了独立事件信息量的叠加原理,并通过严格减函数引理推导出信息量的表示。最后,定义了完备事件组的熵,并证明了当所有事件概率相等时熵达到最大,即不确定性最大。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天看数据挖掘建立判定树的部分,被熵折磨得很痛苦,看了这篇博客稍微懂了一些,数学不好还是码农的孩纸桑不起啊!文章转载自chl033http://blog.youkuaiyun.com/chl033/article/details/4795154

         首先明确一下熵的概念,虽然它是一个热力学度量,但是现在已经广泛应用在了数据分析的方方面面。

熵(ectropy)指的是体系的混乱程度,是体系的转台函数,其值与达到状态的过程无关(所以才可以用来预测啊),下面是正经的了

【概率与信息】

         事件A的概率P(A)A发生可能性的大小的度量。

         P(A)越大,则A发生带来的信息越少;反之,P(A)越小,则A发生带来的信息越大。(点睛之笔啊,hoho)

 

例子:有人对你说“某日巴西足球队战胜了中国队”,你觉得他没有给你多少信息,因为这件事发生的概率非常大,结果几乎在预料当中。但如果他说巴西负于某个亚洲队,你会感觉得到的信息不少。

 

猜想

1.       事件A发生所带来的信息量H(A)应该是它发生的概率P(A)的严格减函数,而且A是必然事件时H(A)=0(“巴西队战胜中国队”)。

2.       若事件A与事件B相互独立,则AB都发生带来的信息量应该是H(A)H(B)之和,即H(AB)=H(A)+H(B)

 

 

【引理】

设H(u)是(0,1)上的严格减函数,H(1)=0,则为了满足H(uv)=H(u)+H(v),对于一些的00,使得H(u)=-c*ln(u)(c是一个正的常数,它的大小涉及信息量的单位,为了简单起见,一般取c=1)

定义1——信息量表示

设事件A的概率是P(A),P(A)>0,则称H(A)=-lnP(A)A带来的信息量;

定义2——完备事件组的熵

A1Ann>=2)是条件S下的完备事件组,P(Ai)>0,i=1…n,则称P(A1,…An)=sumPAilnP(Ai),为完备事件组A1…An的熵。(Very Important

 

【定理】

         A1Ann>=2)是完备事件组,则当且仅当P(A1)=…P(An)时熵最大。

         即,若条件S下可能发生的互不相容的事件至少有两个,则当且仅当这些事件有相等的概率的时候结果的不确定性最大。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值