机器学习-1-朴素贝叶斯

本文介绍了朴素贝叶斯分类方法,它基于贝叶斯定理和特征条件独立假设。通过训练数据学习联合概率分布,然后利用后验概率最大化进行分类。尽管条件独立假设可能导致分类性能不高,但朴素贝叶斯法简化了模型学习和预测过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

- 引言

  • 朴素贝叶斯(naive Bayes)是基于贝叶斯订立和特征条件独立假设的分类方法;
  • 对于给定的训练集和,基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯订立求出后验概率最大的输出y;
    (朴素贝叶斯和贝叶斯估计(Bayesian estimation)是不同的概念。)

- 基本方法

  • 朴素贝叶斯的方法是通过训练数据学习出联合条件概率分布P(X,Y),然后通过做条件性独立假设(朴素贝叶斯名称的由来),学习出条件概率分布P(X=x|Y=ck),从而利用贝叶斯公式P(Y=ck|X=x) = ((P(X=x|Y=ck) * P(Y=ck)) / ((P(X=x|Y=c1) * P(Y=c1) + (P(X=x|Y=c2) * P(Y=c2) + …),在做分类问题时,通过计算出每个x对应的后验概率值P(Y=ck|X=x),将后验概率最大的类作为x的类输出即可.具体的标准化公式如下:
    朴素贝叶斯-后验概率

  • 具体地,P(X=x|Y=ck)通过条件独立性假设求出(条件独立假设等于是说用于分类的特征在类确定的情况下都是条件独立的,所以直接将各种情况的条件概率相乘从而获得整体的条件概率分布)
    朴素贝叶斯-条件独立性假设

  • 所以总的来说,有如下公式:
    朴素贝叶斯-基本公式

  • 于是朴素贝叶斯分类器可以表示为:
    朴素贝叶斯-分类器

  • 但是上述公示的分母对于所有ck都是相同的,所以上述公式可以简化为:
    朴素贝叶斯-简化

- 后验概率最大化的含义

  • 朴素贝叶斯法将实例分到后验概率最大的类中,这等价于期望风险最小化。假设选择0-1损失函数:
    朴素贝叶斯-0/1损失函数

  • 上式中f(X)是分类决策函数,这是,期望风险函数为:
    朴素贝叶斯-期望风险函数

  • 期望是对联合分布P(X,Y)取的,所以条件期望是:
    朴素贝叶斯-条件期望

  • 为了使期望风险最小化,只需要对X=x逐个极小化,由此得到:
    朴素贝叶斯-期望风险最小化

  • 这样,期望风险最小化就得到了后验概率最大化准则:
    朴素贝叶斯-后验概率最大化推导

- 总结

  • 朴素贝叶斯是典型的生成模型,它由给定的训练数据学习出联合条件概率分布P(X,Y),求得后验概率分布P(Y|X)。具体地,利用训练数据求出P(X|Y)和P(Y)的估计,从而得到联合概率分布P(X,Y)=P(Y)P(X|Y);
  • 朴素贝叶斯法的基本假设是条件独立(见上图),这是一个强假设,基于该假设,模型包含的条件概率数量大大减少,模型的学习和预测极大简化,但是导致的缺点是分类性能不高;
  • 朴素贝叶斯利用贝叶斯定理和学习到的联合概率模型进行分类预测,将输入x分到后验概率最大的类y中;
    朴素贝叶斯公式

  • 以上;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值