概念
朴素贝叶斯是基于贝叶斯定理及特征条件独立假设的分类方法。我们在实际问题中需要得到的后验概率,可以通过先验概率和数据一起综合得到。优点是:实现方法简单,不受数据缺失值的影响,没有超参数,但缺点是:对训练数据集很敏感,而且条件独立的假设很难满足。
比较容易理解的公式表达:p(类别|特征) = p(特征|类别)p(类别)/p(特征)
案例
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
#导入新闻数据
news = fetch_20newsgroups(subset = "all")
#进行数据分割
x_train,x_test,y_train,y_test = train_test_split(news.data,news.target,test_size = 0.25)
#对数据集进行特征提取,计算词的重要性
tf = TfidfVectorizer()
x_train = tf.fit_transform(x_train)
print(tf.get_feature_names())
#依然要注意,x_test特征提取时要与x_train同一个fit ,这样保证抽取的单词列表是一致的
x_test = tf.transform(x_test)
#进行预测
bayes = MultinomialNB(alpha=1.0)
bayes.fit(x_train,y_train)
y_predict = bayes.predict(x_test)#打印预测值
y_scores = bayes.score(x_test,y_test)#打印准确率