朴素贝叶斯Naive Bayesian分类器 (NBC)

本文介绍了朴素贝叶斯模型,它是一种基于贝叶斯定理和特征之间独立性的概率分类模型。文章详细阐述了贝叶斯定理,解释了模型的独立性假设和最大后验概率决策准则,并探讨了高斯朴素贝叶斯算法中的样本修正策略。此外,还提供了参考资料以供深入学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

诸神缄默不语-个人优快云博文目录

本文介绍常见的机器学习模型朴素贝叶斯Naive Bayesian。
朴素贝叶斯模型属于generative model,即通过输出的结果反推生成结果的模型概率。

1. 理论基础:贝叶斯定理

在这里插入图片描述
公式可以比较简单地从条件概率公式和全概率公式中推出来: P ( B i ∣ A ) = P ( A B i ) P ( A ) = P ( B i ) P ( A ∣ B i ) ∑ j P ( A B j ) P\left( B_{i}| A\right) =\dfrac{P\left( AB_i\right) }{P\left( A\right) }=\dfrac{P\left( B_{i}\right) P\left( A| B i\right) }{\sum _{j}P\left( AB_{j}\right) } P(BiA)=P(A)P(ABi)=jP(ABj)P(Bi)P(ABi)
这是个很典型的本科数学概率论与数理统计问题,此处不再赘述。

相关术语:
先验概率
后验概率

2. 原理

NBM假设影响类别的各项属性之间相互独立。

通过训练集学习从输入到输出的联合概率分布,再基于学习到的模型,输入 X X X 求出使得后验概率最大的输出 Y Y Y

后验概率:
在这里插入图片描述

基于独立假设:
在这里插入图片描述
代入上式得:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

由于 P ( X ) P(X) P(X) 恒定,因此在比较后验概率时只用比较分子部分。

最大后验概率(MAP)决策准则:
在这里插入图片描述

3. 算法

最大似然估计

类的先验概率可以通过假设各类等概率来计算(先验概率 = 1 / (类的数量)),或者通过训练集的各类样本出现的次数来估计(A类先验概率=(A类样本的数量)/(样本总数))。为了估计特征的分布参数,我们要先假设训练集数据满足某种分布或者非参数模型。

高斯朴素贝叶斯
在这里插入图片描述

样本修正:如果一个给定的类和特征值在训练集中没有一起出现过,那么基于频率的估计下该概率将为0。这将是一个问题。因为与其他概率相乘时将会把其他概率的信息统统去除。所以常常要求要对每个小类样本的概率估计进行修正,以保证不会出现有为0的概率出现。

4. 本文撰写过程中使用的其他正文及脚注未提及的参考资料

  1. 贝叶斯定理_百度百科
  2. 朴素贝叶斯_百度百科
  3. 朴素贝叶斯分类器 - 维基百科,自由的百科全书:这篇里面还给出了2个生动的例子。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

诸神缄默不语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值