机器学习之统计知识

一、什么是最大似然估计、最大后验估计以及贝叶斯参数估计

抛掷三次硬币,如果三次都是正面,那么问下一次硬币正面朝上的概率是多少?这种情况下,我们需要根据已观察到的三次样本数据D来估算概率正面朝上的概率p。

最大似然估计

一种方法是找到能最大化观测数据的似然函数P(D;θ)P(D;θ)的参数θθ的值。这里θθ是关于概率分布P的参数,意味着参数θθ决定了分布P,但是分布P知识说明了观测数据D成立的可能性多大。

θML=argmaxθP(D;θ)θML∗=argmaxθP(D;θ)

这是被称作 最大似然估计 的最常用的参数估计方法。通过该方法,我们可以估计上述问题中 θ=1.0θ=1.0。但是直觉告诉我们这是不太可能的。对于大多数硬币还是存在反面朝上的可能性的,因此我们希望可以得到类似 θ=0.5θ=0.5 的结果。
先验和后验

如何将这种直觉数学化表示出来呢?我们可以定义一个观测数据和参数的联合分布概率:P(D,θ)=P(D|θ)P(θ)P(D,θ)=P(D|θ)P(θ)。我们定义一个先验分布P(θ)P(θ)来表示在观测前关于θθ的直觉,以及在给定θθ的情况下的条件概率P(D|θ)P(D|θ)
此时我们借助贝叶斯公式来求后验分布P(θ|D)P(θ|D)

P(θ|D)=P(D|θ)P(θ)P(D)P(θ|D)=P(D|θ)P(θ)P(D)
最大后验估计

对于贝叶斯公式中的分母,我们可以抛开P(D)P(D)来讨论P(θ|D)P(θ|D),因为P(D)P(D)与参数θθ无关,所以并不会改变分布的相对大小。

θML=argmaxθP(θ|D)=argmaxθP(D|θ)P(θ)P(D)=argmaxθP(D|θ)P(θ)θML∗=argmaxθP(θ|D)=argmaxθP(D|θ)P(θ)P(D)=argmaxθP(D|θ)P(θ)

这就是我们说所的最大后验估计(MAP)。有很多方法可以算出参数θθ的确切值,如:共轭梯度法。
贝叶斯参数估计

有了最大后验估计,可以通过先验分布来引入我们的直觉,并且忽略归一化积分,从而得到后验分布模式下的关于θθ的点估计。
但是如果我们试着使用近似方法求积分呢?假如按通常的独立同分布假设,我们可以利用这个事实:未来可能出现的数据样本值x条件独立于给定参数θθ时的观测值D。

P(x|D)=P(x,θ|D)dh=P(x|θ)P(θ|D)dhP(x|D)=∫P(x,θ|D)dh=∫P(x|θ)P(θ|D)dh

这与使用P(θ|D)P(θ|D)模式对应的参数θθ的单一值来计算P(x|D)P(x|D)不同,而是更严格的方法,考虑了所有可能的θθ的后验值。这种方法称为:贝叶斯参数估计

注意,存在两个关于概率分布的重要任务:

  • 推断:给定已知参数的联合分布,通过其他变量的边缘概率和条件概率估计一个变量子集上的概率分布。
  • 参数估计:从数据中估计某个概率分布的未知参数

贝叶斯参数估计将这两个任务构造成了「同一枚硬币的两面」:

估计在一组变量上的定义的概率分布的参数,就是推断一个由原始变量和参数构成的元分布。

但是,做到这一点需要计算困难的积分,不得不用类似马尔可夫链蒙特卡洛算法或者变分推断等方法取近似。
(关于贝叶斯最后这些,不是很明白~)

ps:用贝叶斯观点理解L1、L2正则化

最优化问题用贝叶斯观点来看就是一种贝叶斯最大后验估计,其中正则项对应于后验估计中的先验信息,损失函数对应于后验估计中的似然函数,二者的乘积即对应贝叶斯最大后验估计的形式。针对L1、L2范数:L1范数相当于给模型参数设置θθ了一个协方差为1α的零均值laplace先验分布,L2相当于给模型参数设置θθ了一个协方差为1α的零均值高斯先验分布。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值