Fisher Information学习笔记

Fisher Information是衡量样本数据信息量的指标,它在机器学习中用于估计参数的准确性。信息量越大,参数估计越准确。Fisher Information的目标与最大似然估计相关,通过计算对数似然函数的一阶导数期望来度量信息。其有三个定义,其中定义3是最常用的计算方式,涉及对数似然函数的二阶导数期望。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Fisher Infomation的意义

Fisher Information 顾名思义,就是用来衡量样本数据的信息量的,通常我们有一组样本,我们在机器学习中需要估计出样本的分布,我们是利用样本所具有的信息量来估计参数的,样本中具有的信息量越多,估计的参数越准,样本的分布估计的就越接近真实分布,这里的信息量就是用Fisher Information来表示的。

什么样本信息量比较大?

我们用样本发生的概率来衡量样本本身所携带的信息量,如果样本发生的概率比较大,那么说明我们在这个样本上可以学习到的东西不多,例如机器学习中,样本一上来概率就都是1,那么参数w就基本学习不出了,相反,如果样本发生的概率比较小,就可以认为该样本携带的信息很多。

Fisher Information目标

对于最大似然估计(Maximum Likelihood Estimation)的基本思想。对于随机变量X~f(x|w),直觉上,当参数w取到的值接近准确值时,似然函数的值应该很大,所以当参数w取到准确值时,似然函数的值应该取到最大值,或者(对数)似然函数的一阶导数为0。
我们定义对数似然函数log(x|w) = log(f(x|w)),令它的导数为0,这有公式log(x|w)=logf(x|w)w=f(x|w)f(x|w)
根据上文,如果log(x|w)非常接近于0,那么我们基本学习不到太多跟参数w有关的知识,换句话说模型基本不会更新了;相反,如果|log(x|w)|很大,或者说|log(x|w)2|很大,那么样本就提供了比较多的关于参数w的信息。因此,我们可以用|log(x|w)2|来衡量提供的信息(information)。但是X是随机变量,所以我们就考虑|log(x|w)2|

评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值