贝叶斯定理与机器学习

博客探讨了贝叶斯定理的基础,包括概率运算、贝叶斯公式及其在三门问题中的应用。接着讨论了贝叶斯推理在机器学习中的角色,通过泰勒展开和假设选择解释了过拟合和泛化误差的概念,并引入了奥卡姆剃刀原则来优化模型复杂度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

概率运算

  1. 求事件A或B发生的概率: A ⋃ B → P ( A + B ) = P ( A ) + P ( B ) A \bigcup B \to P(A+B) = P(A)+P(B) ABP(A+B)=P(A)+P(B)
  2. 求事件A且B发生的概率: A ⋂ B → P ( A , B ) = P ( A ) P ( B ) A \bigcap B \to P(A,B) = P(A)P(B) ABP(A,B)=P(A)P(B)
  3. 求事件A不发生的概率: A ˉ → P ( A ˉ ) = 1 − P ( A ) \bar A \to P(\bar A) = 1 - P(A) AˉP(Aˉ)=1P(A)
  4. 求在事件B发生的条件下,事件A发生的概率: P ( A ∣ B ) = P ( A , B ) / P ( B ) P(A|B) = P(A,B)/P(B) P(AB)=P(A,B)/P(B)
  5. 求在事件A发生的条件下,事件B的概率: P ( B ∣ A ) = P ( A , B ) / P ( A ) P(B|A) = P(A,B)/P(A) P(BA)=P(A,B)/P(A)
  6. 全概率公式: P ( A ) = P ( A ∣ B ) P ( B ) + P ( A ∣ B ˉ ) P ( B ˉ ) P(A) = P(A|B)P(B) +P(A|\bar B)P(\bar B) P(A)=P(AB)P(B)+P(ABˉ)P(Bˉ)

贝叶斯公式

P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ∣ A ) p ( A ) + P ( B ∣ A ˉ ) P ( A ˉ ) P(A|B) = {P(B|A)P(A) \over {P(B|A)p(A) +P(B|\bar A)P(\bar A)}} P(AB)=P(BA)p(A)+P(BAˉ)P(Aˉ)P(BA)P(A)

证明
P ( A , B ) = P ( B , A ) P(A,B) = P(B,A)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值