【机器学习】最大似然估计与最大后验估计

本文深入探讨了概率论中的最大似然估计(MLE)与最大后验估计(MAP)概念。首先解释了概率公式,如联合概率、边缘概率、条件概率和贝叶斯公式。接着,介绍了统计学的频率学派与贝叶斯学派,强调了先验概率的重要性。在MLE部分,通过抛硬币实验展示了如何寻找使样本出现概率最大的参数估计。在MAP部分,引入了先验分布的概念,说明了考虑参数本身分布对于估计的影响。通过实例展示了MAP相比于MLE如何结合先验知识给出更合理的估计结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、一些概率公式

  • 联合概率:假设有随机变量AAABBB,此时P(A=a,B=b)P(A=a,B=b)P(A=a,B=b)用于表示A=aA=aA=aB=bB=bB=b同时发生的概率。这类包含多个条件且所有条件同时成立的概率称为联合概率。
  • 边缘概率:P(A=a)P(A=a)P(A=a)P(B=b)P(B=b)P(B=b)这类仅与单个随机变量有关的概率称为边缘概率:P(A=a)=∑bP(A=a,B=b)P(A=a)=∑_bP(A=a,B=b)P(A=a)=bP(A=a,B=b)P(B=b)=∑aP(A=a,B=b)P(B=b)=∑_aP(A=a,B=b)P(B=b)=aP(A=a,B=b)
  • 条件概率:条件概率表示在条件B=bB=bB=b成立的情况下,A=aA=aA=a的概率,记作P(A=a∣B=b)P(A=a|B=b)P(A=aB=b) P(A│B)=P(A,B)/P(B)P(A│B)=P(A,B)/P(B) P(AB)=P(A,B)/P(B)即:P(A,B)=P(B)∗P(A∣B)=P(A)∗P(B∣A)P(A,B)=P(B)*P(A|B)=P(A)*P(B|A)P(A,B)=P(B)P(AB)=P(A)P(BA)
  • 全概率公式:如果事件A1,A2,A3,…,AnA_1,A_2,A_3,…,A_nA1,A2,A3,,An 构成一个完备事件组,即它们两两互不相容(互斥),其和为全集;并且$ P(A_i)$ 大于0,则对任意事件BBB有:P(B)=P(B∣A1)P(A1)+P(B∣A2)P(A2)+⋯+P(B∣An)P(An)=∑inP(B∣Ai)P(Ai)P(B)=P(B|A_1)P(A_1)+P(B|A_2)P(A_2)+⋯+P(B|A_n)P(A_n)=∑_i^nP(B|A_i)P(A_i)P(B)=P(BA1)P(A1)+P(BA2)P(A2)++P(BAn)P(An)=inP(BAi)P(Ai)
  • 贝叶斯公式:P(A│B)=P(A,B)P(B)=P(B│A)∗P(A)P(B)P(A│B)=\frac{P(A,B)}{P(B)} =\frac{P(B│A)*P(A)}{P(B)} P(AB)=P(B)P(A,B)=P(B)P(BA)P(A)由全概率公式贝叶斯法则可得:P(Ai│B)=P(B│Ai)∗P(Ai)P(B)=P(B│Ai)∗P(Ai)∑i=1nP(B∣Ai)P(Ai)=P(B│Ai)∗P(Ai)P(B│Ai)P(Ai)+P(B∣A^i)P(A^i)P(A_i│B)=\frac{P(B│A_i )*P(A_i)}{P(B)} =\frac{P(B│A_i )*P(A_i)}{∑_{i=1}^nP(B|A_i)P(A_i)}=\frac{P(B│A_i )*P(A_i)}{P(B│A_i )P(A_i )+P(B|\hat{A}_i)P(\hat{A}_i)}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值