机器学习分类算法
朴素贝叶斯
条件概率公式 P ( A ∣ B ) = P ( A ∩ B ) P ( B ) P(A \mid B)=\frac{P(A \cap B)}{P(B)} P(A∣B)=P(B)P(A∩B)
在B条件发生的情况下,A发生的概率。
事件 A 发生的概率定义为事件 A 发生的情况数除以所有可能情况的总数。
P(A) =(事件 A 发生的情况数)/(所有可能情况的总数 )
联合概率:事件 A 和事件 B 同时发生的概率 P(A∩B)P(A∩B) 可以看作是同时满足 A 和 B 的情况数除以所有可能情况的总数。
P(A∩B)=(事件 A 和 B 同时发生的情况数)/(/所有可能情况的总数)
条件概率:当我们知道事件 B 已经发生时,所有可能情况的总数就变成了事件 B 包含的所有情况数。事件 A 在事件 B 已经发生的条件下的概率可以表示为事件 A 和 B 同时发生的情况数除以事件 B 发生的情况数。
P(A∣B)=(事件 A 和 B 同时发生的情况数事件)/(B 发生的情况数)
贝叶斯公式
P ( A ∣ B ) = P ( B ∣ A ) ⋅ P ( A ) P ( B ) P(A \mid B)=\frac{P(B \mid A) \cdot P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)⋅P(A)
全概率公式
样本空间可以被分为多个完备事件组(互斥),一个事件发生的概率就是这个事件分别在这几个完备事件的条件概率下发生的概率之和
P ( B ) = ∑ i = 1 n P ( B ∣ A i ) ∗ P ( A i ) \left.P(B)=\sum_{i=1}^{n} P(B|A_{i}\right) *P{(A_i)} P(B)=∑i=1nP(B∣Ai)∗P(Ai)
在n个分类中,有众多的 f 特征。
可以由训练数据得到样本数据的每个分类的概率 P ( c i ) P(c_i) P(ci)
在每个特征中,类别的条件概率 P ( C i ∣ f i ) P(C_i|f_i) P(Ci∣fi)
每个特征的概率 P ( f i ) P(f_i) P(fi)
根据贝叶斯公式可以求,在指定特征条件下,预测样本是哪一种类别的概率,通过比较概率大小,得到分类的目的
P ( c i ∣ f i ) = ( P ( f i ∣ c i ) ∗ P ( c i ) ) / P ( f i ) P(c_i|f_i)=(P(f_i|c_i)*P(c_i))/P(f_i) P(ci∣fi)=(P(fi∣ci