【机器学习】朴素贝叶斯 决策树 随机森林 线性回归

机器学习分类算法

朴素贝叶斯

条件概率公式 P ( A ∣ B ) = P ( A ∩ B ) P ( B ) P(A \mid B)=\frac{P(A \cap B)}{P(B)} P(AB)=P(B)P(AB)

在B条件发生的情况下,A发生的概率。

事件 A 发生的概率定义为事件 A 发生的情况数除以所有可能情况的总数。

P(A) =(事件 A 发生的情况数)/(所有可能情况的总数 )

联合概率:事件 A 和事件 B 同时发生的概率 P(A∩B)P(AB) 可以看作是同时满足 A 和 B 的情况数除以所有可能情况的总数。

P(A∩B)=(事件 A 和 B 同时发生的情况数)/(/所有可能情况的总数)

条件概率:当我们知道事件 B 已经发生时,所有可能情况的总数就变成了事件 B 包含的所有情况数。事件 A 在事件 B 已经发生的条件下的概率可以表示为事件 A 和 B 同时发生的情况数除以事件 B 发生的情况数。

P(A∣B)=(事件 A 和 B 同时发生的情况数事件)/(B 发生的情况数)

贝叶斯公式
P ( A ∣ B ) = P ( B ∣ A ) ⋅ P ( A ) P ( B ) P(A \mid B)=\frac{P(B \mid A) \cdot P(A)}{P(B)} P(AB)=P(B)P(BA)P(A)

全概率公式

样本空间可以被分为多个完备事件组(互斥),一个事件发生的概率就是这个事件分别在这几个完备事件的条件概率下发生的概率之和

P ( B ) = ∑ i = 1 n P ( B ∣ A i ) ∗ P ( A i ) \left.P(B)=\sum_{i=1}^{n} P(B|A_{i}\right) *P{(A_i)} P(B)=i=1nP(BAi)P(Ai)

在n个分类中,有众多的 f 特征。

可以由训练数据得到样本数据的每个分类的概率 P ( c i ) P(c_i) P(ci)

在每个特征中,类别的条件概率 P ( C i ∣ f i ) P(C_i|f_i) P(Cifi)

每个特征的概率 P ( f i ) P(f_i) P(fi)

根据贝叶斯公式可以求,在指定特征条件下,预测样本是哪一种类别的概率,通过比较概率大小,得到分类的目的

P ( c i ∣ f i ) = ( P ( f i ∣ c i ) ∗ P ( c i ) ) / P ( f i ) P(c_i|f_i)=(P(f_i|c_i)*P(c_i))/P(f_i) P(cifi)=(P(fici

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值