朴素贝叶斯法(用于面试,核心理论,精简)

朴素贝叶斯法是在贝叶斯法的基础上,加了一个强假设,这个强假设就是特征条件独立性假设(文字比较难理解,后面咱用公式表示一下)。

接下来,咱们就开始通俗的讲解朴素贝叶斯法,讲解朴素贝叶斯法之间,咱们先弄明白一个问题,就是这个方法是根据什么东西,确定了什么东西,从而解决了一个样本实例属于哪一个类别的问题。
朴素贝叶斯法是由类别先验概率分布和属性条件概率分布,求得后验概率。后验概率最大的那个类别就是当前样本实例对应的类别(上公式,更容易理解)。

朴素贝叶斯法的最终的值就是通过最大化后验概率来获得样本实例属于哪一个类别。也就是取后验概率最大的那个类别,作为样本实例的类别。

因此问题的目标是就是如下:

我们知道,朴素贝叶斯法也像其他机器学习方法一样,需要求出参数,这样才能把样本实例的特征输入到其中,得出属于的类别,因此我们来看看求参数的这个问题。
朴素贝叶斯发的参数估计
参数估计的方法有两种,一种是极大似然估计,其中似然就是指的就是条件概率(后面细讲);另外一种是贝叶斯估计。我们分别讲解。
极大似然估计
针对先验概率的极大似然估计如下:就是统计所有样本中,每种类别的占比(公式如下,更清晰)

条件概率的极大似然估计如下:就是统记不同的属性值在不同类别的占比(公式如下,更清晰),其中j代表第J个样本,i代表属性,L代表第i个属性的第L个取值。

我们通过一到例题来充分理解一下。有训练数据集如下:求x(2,s)属于什么类别
(插入数据集表格)

极大似然估计:

贝叶斯参数估计
为了避免用极大似然估计可能会出现所要估计的概率值为0的情况。
贝叶斯估计先验概率:(其中lamda=1时,为拉普拉斯平滑。一般使用lamda=1,K为类别数,N为样本数)

贝叶斯估计条件概率:(其中Sj为属性j的取值个数)

同样,我们还是根据上个训练集来采用贝叶斯估计重新计算。

两个估计结果一样。

朴素贝叶斯法是在贝叶斯法的基础上,加了一个强假设,这个强假设就是特征条件独立性假设(文字比较难理解,后面咱用公式表示一下)。

接下来,咱们就开始通俗的讲解朴素贝叶斯法,讲解朴素贝叶斯法之间,咱们先弄明白一个问题,就是这个方法是根据什么东西,确定了什么东西,从而解决了一个样本实例属于哪一个类别的问题。
朴素贝叶斯法是由类别先验概率分布和属性条件概率分布,求得后验概率。后验概率最大的那个类别就是当前样本实例对应的类别(上公式,更容易理解)。

朴素贝叶斯法的最终的值就是通过最大化后验概率来获得样本实例属于哪一个类别。也就是取后验概率最大的那个类别,作为样本实例的类别。

因此问题的目标是就是如下:

我们知道,朴素贝叶斯法也像其他机器学习方法一样,需要求出参数,这样才能把样本实例的特征输入到其中,得出属于的类别,因此我们来看看求参数的这个问题。
朴素贝叶斯发的参数估计
参数估计的方法有两种,一种是极大似然估计,其中似然就是指的就是条件概率(后面细讲);另外一种是贝叶斯估计。我们分别讲解。
极大似然估计
针对先验概率的极大似然估计如下:就是统计所有样本中,每种类别的占比(公式如下,更清晰)

条件概率的极大似然估计如下:就是统记不同的属性值在不同类别的占比(公式如下,更清晰),其中j代表第J个样本,i代表属性,L代表第i个属性的第L个取值。

我们通过一到例题来充分理解一下。有训练数据集如下:求x(2,s)属于什么类别
(插入数据集表格)

极大似然估计:

结果:

贝叶斯参数估计
为了避免用极大似然估计可能会出现所要估计的概率值为0的情况。
贝叶斯估计先验概率:(其中lamda=1时,为拉普拉斯平滑。一般使用lamda=1,K为类别数,N为样本数)

贝叶斯估计条件概率:(其中Sj为属性j的取值个数)

同样,我们还是根据上个训练集来采用贝叶斯估计重新计算。


以上就是贝叶斯的核心理论。本人兴趣爱好、研究方向为深度学习、机器学习、计算机视觉,欢迎来踩点,共同交流。个人微信


本文精简介绍了朴素贝叶斯法的核心理论,包括特征条件独立性假设、后验概率计算方法及其应用场景。详细解释了如何利用极大似然估计与贝叶斯估计求解参数,并通过实例演示整个过程。
2194

被折叠的 条评论
为什么被折叠?



