概率论中,对于两个独立事件,它们的联合概率为P(A,B)=P(A∣B)P(B)=P(B∣A)P(A)P(A,B)=P(A\mid B)P(B)=P(B\mid A)P(A)P(A,B)=P(A∣B)P(B)=P(B∣A)P(A)进一步,得到贝叶斯公式:P(B∣A)=P(A∣B)P(B)P(A)P(B\mid A)=\frac{P(A\mid B)P(B)}{P(A)}P(B
先验概率、后验概率、贝叶斯公式
最新推荐文章于 2024-09-15 17:51:49 发布
本文介绍了概率论中的关键概念,包括先验概率、后验概率和贝叶斯公式。通过公式P(B∣A)=P(A)P(A∣B)P(B)P(A)=P(A∣B)P(B)+P(A∣Bˉ)P(Bˉ),阐述了如何在机器学习中应用这些概念。在机器学习中,将数据表示为A,模型表示为B,似然概率P(D∣M)、先验概率P(M)、事实概率P(D)和后验概率P(M∣D)被用来估计模型参数并进行统计推断。

最低0.47元/天 解锁文章
3966

被折叠的 条评论
为什么被折叠?



