《统计学习方法》学习笔记(第四章)

本文主要介绍了朴素贝叶斯分类方法,基于贝叶斯定理和特征条件独立假设,用于输入/输出的联合分布概率学习。重点讲述了高斯朴素贝叶斯(GaussianNB)的概率密度函数及其在实际应用中的代码实现。同时,讨论了Python中DataFrame的loc和iloc的区别,以及zip函数在数据处理中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

朴素贝叶斯

是基于贝叶斯定理与特征条件独立假设的分类方法
对于给定训练数据集,首先基于特征条件独立假设学习输入/输出的联合分布概率;然后基于此模型,对给定的输入x,利用贝叶斯理论求出后验概率的最大的输出y。
具体:给定属性值的某类值的概率称为条件概率,通过将条件概率乘以给定类值的每个属性(先验概率),我们得到属于该类的数据实例的概率。
为了进行预测,我们可以计算属于每个类的实例的概率,并选择具有最高概率的类值。

GaussianNB 高斯朴素贝叶斯
特征的可能性被假设为高斯

概率密度函数: P ( x i ∣ y k ) = 1 2 π σ y k 2 e x p ( − ( x i − μ y k ) 2 2 σ y k 2 ) P(x_i | y_k)=\frac{1}{\sqrt{2\pi\sigma^2_{yk}}}exp(-\frac{(x_i-\mu_{yk})^2}{2\sigma^2_{yk}}) P(xiy

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值