贝叶斯机器学习(一)

本系列主要是贝叶斯机器学习相关知识的学习笔记。

第一讲:概率论回顾,贝叶斯公式,共轭先验

  • “贝叶斯规则” 是来自于对于概率分布的一些基本操作。下面举一个简单的例子
例子

在这里插入图片描述
整个空间是Ω\OmegaΩAiA_iAi 是第i列(随便定义的),BiB_iBi 是第i行(同理,随便定义的)

  • 在这个空间里分布着一些点。我们随机的且均匀的从这些点里取出一个点。
  • 那么这个概率计算是一个简单的数数。
    P(x∈A1)=#A1#Ω,P(x∈B1)=#B1#ΩP(x \in A_1)=\frac{\#A_1}{\#\Omega}, P(x \in B_1)=\frac{\#B_1}{\#\Omega}P(xA1)=#Ω#A1,P(xB1)=#Ω#B1
  • P(x∈A1∣x∈B1)P(x \in A_1 |x \in B_1)P(xA1xB1)表示什么呢?它表示在已知该点属于B1B_1B1的情况下,它属于A1A_1A1的概率。这就是 条件概率
    P(x∈A1∣x∈B1)=#(A1∩B1)#B1=#(A1∩B1)#Ω#Ω#B1=P(x∈A1&x∈B1)P(x∈B1)P(x \in A_1|x \in B_1)=\frac{\#(A_1 \cap B_1)}{\#B_1}=\frac{\#(A_1 \cap B_1)}{\#\Omega}\frac{\#\Omega}{\#B_1}=\frac{P(x \in A_1 \& x \in B_1)}{P(x \in B_1)}P(xA1xB1)=#B1#(A1B1)=#Ω#(A1B1)#B1#Ω=P(xB1)P(xA1&xB1)
更一般的表述
  • AAABBB代表两个事件,然后
    P(A∣B)=P(A,B)P(B)⇒P(A∣B)P(B)=P(A,B)P(A|B)=\frac{P(A,B)}{P(B)} \Rightarrow P(A|B)P(B)=P(A,B)P(AB)=P(B)P(A,B)P(AB)P(B)=P(A,B)
  • 对于上述的一些符号,我们有如下命名,
    P(A∣B)P(A|B)P(AB):条件概率
    P(A,B)P(A,B)P(A,B):联合概率
    P(B)P(B)P(B):边缘概率
  • 这最后一个听起来似乎不是很好理解,因为它仅仅是“B的概率”。我们可以通过之前同样数数的方式来解释P(B)P(B)P(B)作为概率是如果通过整合(边缘化)来得到的。
    P(B)=#B#Ω=∑i=13#(Ai∩B)#Ω=∑i=13#(Ai∩B)#Ω=∑i=13P(Ai,B)P(B) = \frac{\# B}{\#\Omega}=\frac{\sum^3_{i=1}\#(A_i \cap B)}{\#\Omega}=\sum^3_{i=1}\frac{\#(A_i \cap B)}{\# \Omega}=\sum^3_{i=1}P(A_i,B)P(B)=#Ω#B=#Ωi=13#(AiB)=i=13#Ω#(AiB)=i=13P(Ai,B)
  • 一般而言,这个求和以及对于每个AiA_iAi都是有严格的要求的。要求彼此没有交集而且它们的并集等于整个空间(Ω\OmegaΩ)。
贝叶斯规则
  • 我们简单的从几步来推导一下
    P(A,B)=P(A∣B)P(B)P(A,B)=P(A|B)P(B)P(A,B)=P(AB)P(B)
    由对称性我们有
    P(A,B)=P(B∣A)P(A)P(A,B)=P(B|A)P(A)P(A,B)=P(BA)P(A)
    因此
    P(A∣B)=P(B∣A)P(A)P(B)=P(B∣A)P(A)∑iP(Ai,B)=P(B∣A)P(A)∑iP(B∣Ai)P(Ai)P(A|B)=\frac{P(B|A)P(A)}{P(B)}=\frac{P(B|A)P(A)}{\sum_iP(A_i,B)}=\frac{P(B|A)P(A)}{\sum_iP(B|A_i)P(A_i)}P
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值