- Author: Silly_0903;
- Datawhale
NaïveBayes简介
基于贝叶斯方法,通过先验概率,计算并选择最大的后验概率。
核心公式
P ( Y ∣ X ) = P ( X ∣ Y ) P ( Y ) P ( X ) P(Y|X)=\frac{P(X|Y)P(Y)}{P(X)} P(Y∣X)=P(X)P(X∣Y)P(Y)
其中:
P(Y)为先验概率(prior);
P(X|Y)为在样本为Y的前提下,X的条件概率是(likelihood);
P(X)是证据因子(evidence);
P(Y|X)是后验概率(posterior)。
-
离散的概率模型:
P ( Y ∣ X 1 , … , X i ) P(Y|X_1,…,X_i) P(Y∣X1,…,Xi),其中类别变量Y,依赖于特征变量 X 1 , X 2 , … , X i X_1, X_2,…,X_i X1,X2,…,Xi, 修改模型为:
P ( Y ∣ X 1 , . . , X i ) = P ( X 1 , . . , X i ) P ( Y ) P ( X 1 , . . . , X i ) P(Y|X_1,..,X_i)=\frac{P(X_1,..,X_i)P(Y)}{P(X_1,...,X_i)} P(Y∣X1,..,Xi)=P(X1,...,Xi)P(X

本文介绍了朴素贝叶斯算法,包括其基于贝叶斯定理的核心公式,离散和连续概率模型,以及拉普拉斯修正。文章还探讨了朴素贝叶斯与逻辑回归的区别,并总结了面试中常见的朴素贝叶斯相关问题。
最低0.47元/天 解锁文章
8250

被折叠的 条评论
为什么被折叠?



