最大似然估计MLE和最大后验估计MAP理解

本文探讨了频率学派与贝叶斯派的区别,介绍了MLE、MAP的概念及其应用,并深入讨论了ML、MAP、Bayesian方法之间的联系与区别。此外,还从统计学角度解读了机器学习的三要素:特征工程、目标函数、模型学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、频率学派和贝叶斯派

频率学派认为参数是固定而未知的,关心似然函数。

贝叶斯派认为参数是随机的有分布的,关心后验分布。

2、MLE、MAP公式


3、参数估计-MLE


4、参数估计-MAP

MAP与MLE最大的不同在于p(参数)项,MAP将先验知识加入,优化损失函数。

5、MLE、MAP、Bayesian统一理解


ML(最大似然估计):给定一个模型的参数,然后试着最大化p(D|参数)。即给定参数的情况下,看到样本集的概率。目标是找到使前面概率最大的参数。逻辑回归都是基于ML做的。MLE不把先验知识加入模型中。

MAP(最大后验估计):最大化p(参数|D)。

Bayesian:考虑了所有可能的参数,即所有的参数空间(参数的分布)。

MLE和MAP的目标都是一样的:找到一个最优解,然后用最优解做预测。贝叶斯模型会给出对参数的一个分布,比如对模型的参数, 假定参数空间里有参数1、参数2、 参数3、...、参数N,贝叶斯模型学出来的就是这些参数的重要性(也就是分布),然后当我们对新的样本预测的时候,就会让所有的模型一起去预测,但每个模型会有自己的权重(权重就是学出来的分布)。最终的决策由所有的估计根据其权重做出决策。


5、从统计学角度理解机器学习,不无三要素:特征工程、目标函数、模型学习,机器学习的本质是用计算机统计地估计复杂函数。


定义假设空间(Model assumption):如线性分类,线性回归,逻辑回归,SVM,深度学习网络等。

定义损失函数(目标函数)并优化求解(如:梯度下降,牛顿法等)。

不同的模型使用不同的算法,如逻辑回归通常用梯度下降法解决,神经网络用反向推导解决,贝叶斯模型则用MCMC来解决。

机器学习 = 模型 + 优化(不同算法)


参考:

https://www.cnblogs.com/shixisheng/p/7136890.html

http://www.cnblogs.com/little-YTMM/p/5399532.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值