朴素贝叶斯的思想:
对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,此分类项的类别是概率最大的类别。
朴素贝叶斯分类的定义
1、设x = {a1,a2,…,am}为一个待分类项,每个a为x的一个特征属性。
2、类别集合为C = {y1,y2,…,yn}。
3、计算P(y1|x),P(y2|x),…,P(yn|x)
4、如果P(yk|x) = max{P(y1|x),P(y2|x),…,P(yn|x)},则x类别是yk
贝叶斯公式
P ( A ∣ B ) = P ( A ⋂ B ) P ( B ) P ( B ∣ A ) = P ( A ⋂ B ) P ( A ) \begin{array}{c} P(A|B)= \frac{P(A \bigcap B)}{P(B)}\\P(B|A)= \frac{P(A \bigcap B)}{P(A)} \end{array} P(A∣B)=P(B)P(A⋂B)P(B∣A)=P(A)P(A⋂B)
由上面两个公式得贝叶斯公式: P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)= \frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
P(A) 称为先验概率
P(A|B) 称为后验概率
P(B|A)\P(B)称为可能性函数,这是一个调整因子
后验概率 = 先验概率 * 调整因子
这里使用机器学习的x,y替换事件A、B得:
P ( y i ∣ x ) = P ( x ∣ y i ) P ( y i ) / P ( x ) P(y_i|x) = P(x|y_i)P(y_i)/P(x) P(yi∣x)=P(x∣