机器学习篇-朴素贝叶斯和特征降维

一. 朴素贝叶斯算法

朴素贝叶斯算法介绍

利用概率值进行分类的一种机器学习算法

复习概率

相互独立:如果P(AB)= P(A)P(B),则称事件A与事件B相互独立

比如:女神喜欢程序员的概率,女神喜欢产品经理的概率,两个事件没有关系

简言之

  1. 条件概率:在去掉部分样本的情况下,计算某些样本的出现的概率,表示为:P(B|A)

  2. 联合概率:多个事件同时发生的概率是多少,表示为:P(AB) = P(B)*P(A|B)

贝叶斯公式

公式

举例解释

朴素贝叶斯

朴素贝叶斯在贝叶斯基础上增加:特征条件独立

假设,即:特征之间是互为独立的。此时,联合概率的计算即可简化为:

  1. P(程序员,超重|喜欢) = P(程序员|喜欢) * P(超重|喜欢)

  2. P(程序员,超重) = P(程序员) * P(超重)

条件不独立: P(AB) = P(A) * P(B|A) = P(B) * P(A|B)

条件独立: P(AB) = P(A) * P(B)

拉普拉斯平滑系数

为了避免概率值为 0,我们在分子和分母分别加上一个数值,这就是拉普拉斯平滑系数的作用

总结

案例-商品情感分类

API

流程

代码

import jieba  # 用来做分词
from sklearn.naive_bayes import MultinomialNB  # 贝叶斯模型
from sklearn.feature_extraction.text import CountVectorizer  # 词频统计
​
import numpy as np
import pandas as pd
​
​
def demo01_naive_bayes():
    # 数据获取
    data = pd.read_csv('data/书籍评价.csv', encoding='gbk')
    # data.info()
​
    # 数据基本处理
    # 处理标签      好评 1  差评 0
    data['评价'] = np.where(data['评价'] == '好评', 1, 0)
    y = data['评价']
    # print(data.head())
    # 停用词表
    stop_words = []
    with open('data/stopwords.txt', 'r', encoding='utf-8') as f:
        lines = f.readlines()
        stop_words = [line.strip() for line in lines]
    stop_words = list(set(stop_words))  # 去重
    # print(stop_words)
    # 评论文本分词
    comment_list = [','.join(jieba.lcut(line)) for line in data['内容']]
    # print(comment_list)
    # 统计词频, 作为特征
    transformer = CountVectorizer(stop_words=stop_words)
    x_train = transformer.fit_transform(comment_list)
    """
    fit_transform(comment_list) 方法首先会对输入的 comment_list 进行拟合,学习其中的词汇表。
    然后将每条评论转换为一个词频向量,形成一个稀疏矩阵 x_train。稀疏矩阵是一种高效的存储方式,适用于大部分元素为零的情况。
    矩阵中的每一行代表一条评论,每一列代表词汇表中的一个单词,矩阵中的值表示该单词在这条评论中出现的次数
    """
    # print(x_train)
    my_names = transformer.get_feature_names_out()
    # print(my_names)
​
    x = x_train.toarray()
    # 3-5 准备训练集测试集
    x_train = x[:10, :]         # 准备训练集
    y_train = y.values[0:10]
    x_test = x[10:, :]          # 准备测试集
    y_test = y.values[10:]
    print('x_train.shape-->',data.内容[10:])
    print('y_train.shape-->',y_test)
​
    # 4.模型训练
    # 4-1 实例化贝叶斯 # 添加拉普拉修正平滑参数
    mymultinomialnb = MultinomialNB()
    mymultinomialnb.fit(x_train, y_train)
    
    # 5.模型预测
    y_pred = mymultinomialnb.predict(x_test)
    print('预测值-->', y_pred)
    print('真实值-->', y_test)
    
    # 6.模型评估
    myscore = mymultinomialnb.score(x_test, y_test)
    print('myscore-->', myscore)
​
​
if __name__ == '__main__':
    demo01_naive_bayes()
​

二. 特征降维

特征降维

为什么要进行特征降维

特征对训练模型时非常重要的;用于训练的数据集包含一些不重要的特征,可能导致模型泛化性能不佳

  1. 某些特征的取值较为接近,其包含的信息较少

  2. 希望特征独立存在对预测产生影响,两个特征同增同减非常相关,不会给模型带来更多的信息

  3. 解决模型过拟合

目的

指在某些限定条件下,降低特征个数

特征降维涉及的知识面比较多,当前阶段常用的方法:

​ (1)低方差过滤法

​ (2)PCA(主成分分析)降维法

​ (3)相关系数(皮尔逊相关系数、斯皮尔曼相关系数)

低方差过滤法

低方差过滤法

指的是删除方差低于某些阈值的一些特征

  1. 特征方差小:特征值的波动范围小,包含的信息少,模型很难学习到信息

  2. 特征方差大:特征值的波动范围大,包含的信息相对丰富,便于模型进行学习

API

代码

# 1.导入依赖包
from sklearn.feature_selection import VarianceThreshold
import pandas as pd
​
# 2. 读取数据集
data = pd.read_csv('data/垃圾邮件分类数据.csv')
print(data.shape) # (971, 25734)
​
​
# 3. 使用方差过滤法
transformer = VarianceThreshold(threshold=0.1)
data = transformer.fit_transform(data)
print(data.shape) # (971, 1044)
​

主成分分析法(PCA)

主成分分析

PCA 通过对数据维数进行压缩,尽可能降低原数据的维数(复杂度)损失少量信息,在此过程中可能会舍弃原有数据、创造新的变量。

API

代码

# 1.导入依赖包
from sklearn.decomposition import PCA
from sklearn.datasets import load_iris
​
# 2. 加载数据集
x, y = load_iris(return_X_y=True)
print(x[:5])
​
​
# 3. PCA,保留指定比例的信息
transformer = PCA(n_components=0.95)
x_pca = transformer.fit_transform(x)
print(x_pca[:5])
​
​
# 4. PCA,保留指定数量特征
transformer = PCA(n_components=2)
x_pca = transformer.fit_transform(x)
print(x_pca[:5])
​
​

相关系数法

相关系数:反映特征列之间(变量之间)密切相关程度的统计指标

常见2个相关系数:皮尔逊相关系数、斯皮尔曼相关系数

去掉高度相关的特征(相关系数)

相关系数

皮尔逊相关系数
斯皮尔曼相关系数

代码

先看显著性(不相关概率 => 相关系数的可信度, 低于显著性的阈值表示可信的.), 再看相关系数,

# 1.导入依赖包
import pandas as pd
from sklearn.feature_selection import VarianceThreshold
from scipy.stats import pearsonr
from scipy.stats import spearmanr
from sklearn.datasets import load_iris
​
# 2.读取数据集(鸢尾花数据集)
data = load_iris()
data = pd.DataFrame(data.data, columns=data.feature_names)
​
# 3. 皮尔逊相关系数
corr = pearsonr(data['sepal length (cm)'], data['sepal width (cm)'])
print(corr, '皮尔逊相关系数:', corr[0], '不相关性概率:', corr[1])
# (-0.11756978413300204, 0.15189826071144918) 皮尔逊相关系数: -0.11756978413300204 不相关性概率: 0.15189826071144918
​
# 4. 斯皮尔曼相关系数
corr = spearmanr(data['sepal length (cm)'], data['sepal width (cm)'])
print(corr, '斯皮尔曼相关系数:', corr[0], '不相关性概率:', corr[1])
# SpearmanrResult(correlation=-0.166777658283235, pvalue=0.04136799424884587) 斯皮尔曼相关系数: -0.166777658283235 不相关性概率: 0.04136799424884587
​

总结

### 朴素贝叶斯算法介绍 #### 定义与背景 朴素贝叶斯是一种基于贝叶斯定理的概率分类器,假设特征之间相互独立。这一特性使得该方法简单而高效,在许多实际应用场景中表现出色[^1]。 #### 贝叶斯定理回顾 贝叶斯定理由条件概率公式推导而来,用于描述两个事件AB发生条件下各自发生的可能性之间的关系。具体表达式如下: \[ P(A|B)=\frac{P(B | A) \cdot P(A)}{P(B)} \] 其中\(P(A)\)表示先验概率;\(P(B|A)\)称为似然度;\(P(A|B)\)则代表后验概率。 #### 模型概述 对于给定的数据集D={(\(X_1,Y_1\)), (\(X_2, Y_2\)), ..., (\(X_n ,Y_n\))},其中每个样本由d属性向量组成,并对应类别标签y∈C={c₁,c₂,...,ck}。朴素贝叶斯通过估计不同类别的联合分布来预测新实例所属类别。即寻找使下述表达式的值最大的那个ci作为最终判定结果: \[ c_{pred}=argmax_{i=1...k}\left[P(c_i)\prod _j^{d}{P(x_j|c_i)}\right]\] 这里采用乘法原理计算各度上的条件概率相乘得到整个样本属于某特定类别的总概率。 ### 应用场景展示 #### 文本分类 利用词袋模型将文档转换成数值形式输入到朴素贝叶斯分类器当中去训练并测试其性能表现良好。例如新闻文章自动打标签任务可以借助此技术实现自动化处理流程提高工作效率减少人工成本支出等问题。 ```python from sklearn.naive_bayes import MultinomialNB clf = MultinomialNB() clf.fit(X_train_tfidf, twenty_train.target) predicted = clf.predict(X_test_tfidf) ``` #### 垃圾邮件过滤 电子邮件服务提供商能够运用朴素贝叶斯快速识别潜在垃圾信息从而保护用户免受骚扰以及恶意链接侵害风险。通过对大量已知正常邮件及垃圾信件的学习建立有效的判别机制达到精准拦截目的。 #### 医疗诊断辅助工具开发 医生可以根据病人的症状记录构建相应的数据表单再经过预处理之后送入预先训练好的朴素贝叶斯模型之中得出可能患病种类列表供临床决策参考之用有助于提升诊疗效率低误诊几率保障患者健康权益不受损害。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值