[Machine Learning] 贝叶斯公式 & 全概率公式(Bayes Rule & Total Probability Theorem)

本文介绍了贝叶斯公式和全概率公式在概率论与机器学习中的应用。通过实例解释了如何利用先验概率和后验概率计算事件发生的概率,展示了全概率公式用于'由原因推结果',而贝叶斯公式用于'由结果推原因'的过程。文章强调了先验概率和后验概率的关系,并提供了公式证明。

Keywords

  • Bayes Rule(贝叶斯公式)
  • Total Probability Theorem(全概率公式)
  • Prior Probability(先验概率)
  • Posterior Probability(后验概率)

举个例子

如图,这是一个简单两步式的模型。

现在我们需要完成事件BBB,那么可以有n种不同的路A1,A2,A3,...,AnA_1,A_2,A_3,...,A_nA1,A2,A3,...,An选择:

如果我们选择A1A_1A1这条路,那么:

  • 第一步:选择A1A_1A1的概率就是P(A1)P(A_1)P(A1)
  • 第二步:就是在A1A_1A1发生的条件下事件B发生的概率P(B∣A1)P(B|A_1)P(BA1)

由此,我们就可以求出,由第一条路径A1A_1A1完成事件BBB的概率为P(A1)⋅P(B∣A1)P(A_1)\cdot P(B|A_1)P(A1)P(BA1)

类似的,第二条,第三条,…,第n条路径完成事件BBB的概率也是一样做法。

所以我们就可以得到完成事件B的概率,即所有路径的概率相加:
P(B)=P(A1)P(B∣A1)+P(A2)P(B∣A2)+...+P(An)P(B∣An)=∑i=1nP(Ai)P(B∣Ai)P(B) = P(A_1) P(B|A_1) + P(A_2) P(B|A_2) + ... + P(A_n) P(B|A_n) = \sum_{i=1}^{n}P(A_i) P(B|A_i)P(B)=P(A1)P(BA1)+P(A2)P

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值