极大似然估计与极大后验估计

本文介绍了统计学习中的三种核心方法:极大似然估计、最大后验估计和贝叶斯估计。极大似然估计用于确定使数据概率最大的参数值;最大后验估计通过引入参数的概率分布来进一步优化这一过程;而贝叶斯估计则更加全面地考虑了参数的不确定性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 极大似然估计(频率学派)
    在极大似然估计中,假设数据服从某个参数未知的概率分布,求解目标是求一个参数使得数据似然概率最大。这里参数是固定的值,反映数据的本质属性。
    θML=arg⁡max⁡θP(X;θ)=arg⁡max⁡θlogP(X;θ)\theta _{ML}=\arg \max \limits_{\theta} P(X;\theta) \\=\arg \max \limits_{\theta} logP(X;\theta)θML=argθmaxP(X;θ)=argθmaxlogP(X;θ)
    条件最大似然估计:
    θML=arg⁡max⁡θP(Y∣X;θ)\theta _{ML}=\arg \max \limits_{\theta} P(Y|X;\theta)θML=argθmaxP(YX;θ)
    当样本小到可能会发生过拟合时,可以考虑加入正则项或者考虑贝叶斯统计。
  2. 最大后验估计(贝叶斯学派)
    在最大后验估计中,概率分布的参数也被当成了随机变量,其值决定于观察者看到的数据,随着观察的变化而变化。最大后验估计目标是,根据参数的概率分布得到概率最大的参数值。
    θMAP=arg⁡max⁡θP(θ∣X)=arg⁡max⁡θP(θ,X)/P(X)=arg⁡max⁡θP(X∣θ)∗P(θ)/P(X)=arg⁡max⁡θlog(P(X∣θ)∗P(θ)/P(X))=arg⁡max⁡θlogP(X∣θ)+logP(θ)−logP(X)=arg⁡max⁡θlogP(X∣θ)+logP(θ)\theta _{MAP}=\arg \max \limits_{\theta} P(\theta|X) \\=\arg \max \limits_{\theta} P(\theta,X)/P(X) \\=\arg \max \limits_{\theta} P(X|\theta)*P(\theta)/P(X) \\=\arg \max \limits_{\theta} log(P(X|\theta)*P(\theta)/P(X)) \\=\arg \max \limits_{\theta} logP(X|\theta)+logP(\theta)-logP(X) \\=\arg \max \limits_{\theta} logP(X|\theta)+logP(\theta)θMAP=argθmaxP(θX)=argθmaxP(θ,X)/P(X)=argθmaxP(Xθ)P(θ)/P(X)=argθmaxlog(P(Xθ)P(θ)/P(X))=argθmaxlogP(Xθ)+logP(θ)logP(X)=argθmaxlogP(Xθ)+logP(θ)

注意在极大似然估计中,“;”表示θ\thetaθ被当做了概率分布的参数,而在最大后验估计中,“|”表示θ\thetaθ被当做了随机变量。优化过程实际是一样的。所以最大后验估计相当于带有正则项约束的极大似然估计。而先验分布P(θ)P(\theta)P(θ)中的超参数对应着正则项的系数。
比如,当P(θ)P(\theta)P(θ)是拉普拉斯分布时,相当于加上L1L_1L1正则项;当P(θ)P(\theta)P(θ)是高斯分布时,相当于加上L2L_2L2正则项。当P(θ)P(\theta)P(θ)是均匀分布时,最大后验估计退化为极大似然估计。
然而并不是所有的正则项都对应着贝叶斯估计。

  1. 贝叶斯估计(贝叶斯学派)
    贝叶斯估计和最大后验估计有密切联系。可以认为最大后验估计是贝叶斯估计的一种特例。最大后验估计是在参数分布中得到一个最佳参数值(概率最大),而贝叶斯估计是,求该参数在参数分布上的期望,作为参数的估计(1)式。更广义的贝叶斯估计不仅估计参数,还可以估计实例xxx的概率值(2)式。
    θBE=Eθ[θ]=∫θP(θ∣X)dθ         (1)\theta_{BE}=E_{\theta}[\theta]=\int \theta P(\theta|X)d\theta ~~~~~~~~~(1)θBE=Eθ[θ]=θP(θX)dθ         (1)
    P(x∣X)BE=Eθ[x∣X]=∫P(x∣θ)θP(θ∣X)dθ         (2)P(x|X)_{BE}=E_{\theta}[x|X]=\int P(x|\theta)\theta P(\theta|X)d\theta ~~~~~~~~~(2)P(xX)BE=Eθ[xX]=P(xθ)θP(θX)dθ         (2)
    [1]. 深度学习,p82-88
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值