机器学习中的参数估计方法

本文介绍了机器学习中的参数估计方法,包括最大似然估计、贝叶斯统计、最大后验估计(MAP)以及EM算法。最大似然估计是通过最大化样本数据出现的概率来估计模型参数,而贝叶斯统计考虑了参数的先验分布。最大后验估计结合了似然和先验概率。EM算法用于含有隐变量的概率模型参数估计,通过E步和M步迭代来逼近最优解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

概率模型的训练过程就是参数估计(parameter estimation)的过程。对于参数估计,统计学界的两个学派分别提供了不同的解决方案:

  • 频率主义学派(Frequentist)认为参数虽然未知,但却是客观存在的固定值,因此,可通过优化似然函数等准则来确定参数值
  • 贝叶斯学派(Beyesian)则认为参数是未观察到的随机变量,其本身也可有分布,因此,可假定参数服从一个先验分布,然后基于观测到的数据来计算参数的后验分布。

最大似然估计(MLE)

频率主义学派,根据数据采样来估计频率分布参数。

最大似然估计,通俗理解来说,就是在假定整体模型分布已知,利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值!

换句话说,最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。

假设m个样本的数据集X=x1,x2,...,xmX=x1,x2,...,xm,独立地由未知真实数据生成分布pdata(x)pdata(x)生成。pmodel(x;θ)pmodel(x;θ)是一族由θθ确定在相同空间上的概率分布。对θθ的最大似然估计:

θML=argmaxθpmodel(X;θ)=argmaxθi=1mpmodel(xi;θ)θML=argmaxθpmodel(X;θ)=argmaxθ∏i=1mpmodel(xi;θ)

多个概率的乘积计算中可能造成数值下溢,取对数:

θML=argmaxθi=1mlogpmodel(x
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值