Machine Learning之高等数学篇(十六)☞《条件概率、全概率、贝叶斯公式》

本文介绍了条件概率、全概率和贝叶斯公式,通过实例详细阐述了这三个概念。条件概率是给定条件变化后事件发生的可能性;全概率公式用于计算通过多种途径达到某一目标的概率;贝叶斯公式则是在已知结果的情况下,求导致该结果的原因概率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上一节呢,我们初探了《概率与数理统计》,这次我们续接上一节的内容,来专题学习《条件概率、全概率、贝叶斯公式》

注! 声明,本文转载,本文转载,本文转载!
本文转载,侵删! 感谢博主”hearthougan”(✈机票点我)

一、条件概率公式

    举个例子,比如让你背对着一个人,让你猜猜背后这个人是女孩的概率是多少?直接猜测,肯定是只有50%的概率,假如现在告诉你背后这个人是个长头发,那么女的概率就变为90%。所以条件概率的意义就是,当给定条件发生变化后,会导致事件发生的可能性发生变化。

    条件概率由文氏图出发,比较容易理解:
在这里插入图片描述
p ( A ∣ B ) p(A|B) p(AB)表示B发生后A发生的概率,由上图可以看出B发生后,A再发生的概率就是 P ( A ∩ B ) P ( B ) \frac{P(A\cap B)}{P(B)} P(B)P(AB)
因此: p ( A ∣ B ) = P ( A ∩ B ) P ( B ) p(A|B) = \frac{P(A\cap B)}{P(B)} p(AB)=P(B)P(AB)

由:
p ( A ∣ B ) = P ( A ∩ B ) P ( B ) ⇒ p ( A ∩ B ) = p ( A ∣ B ) × p ( B ) p(A|B) = \frac{P(A\cap B)}{P(B)}\Rightarrow p(A\cap B) = p(A|B) \times p(B) p(AB)=P(B)P(AB)p(AB)=p(AB)×p(B)

⇒ p ( A ∩ B ) = P ( B ∣ A ) × P ( A ) \Rightarrow p(A\cap B) = P(B|A) \times P(A) p(AB)=P(BA)×P(A)

得:
p ( A ∣ B ) = P ( A ∩ B ) P ( B ) = p ( B ∣ A ) × P ( A ) p ( B ) p(A|B) = \frac{P(A\cap B)}{P(B)}=\frac{p(B|A) \times P(A)}{p(B)} p(AB)=P(B)P(AB)=p(B)p(BA)×P(A)

这就是条件概率公式。

假如事件A与B相互独立,那么:

p ( A ∩ B ) = P ( A ) × P ( B ) p(A\cap B)=P(A) \times P(B) p(AB)=P(A)×P

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值