naive bayes注意的一个点

本文深入探讨了Bayes分类器的基本原理,包括Bayes公式的应用与转化,以及如何利用条件独立假设将联合分布简化为单独的条件分布。讨论了先验概率的设定及其与真实分布的一致性问题,提出通过交叉验证来优化先验分布的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

P(A_{i}|B) = \frac{P(B|A_{i})*P(A_{i})}{P(B)}

bayes公式如上

bayes分类器的本质实际是对P(A_{i}|B)不好直接计算,转化为与P(B|A_{i})的逆向条件概率,其中有一个重要的假设B中每个元素条件独立,这样,就可以讲P(B|A_{i})的联合分布变成一个个P(B_{j}|A_{i})单独的条件分布。对于给定的traindata,所有的P(A_{i})P(B_{j}|A_{i})都是可以统计出来的,P(B)则是一个常量,不起作用。

当traindata训练好之后,有一个问题。就是先验概率是否满足客观规律呢???traindata中的P(A_{i})是不是和实际生活中P(A_{i})一致???traindata的分布是不是真实分布???不得而知!

 

对于先验概率P(A_{i}),当我们不知道真实分布的样子时,最直观的假设就是所有A_{i}均匀分布(此时所有P(A_{i})也完全相同),分类结果变成了P(A_{i}|B)\oe \prod P(B_{j}|A_{i}),和似然概率成正比!

traindata中A_{i}分布和真实A_{i}分布的可信度足够高时,P(A_{i})取traindata中的数值!

直接取所有A_{i}均匀分布,很有可能和真实分布不符合,

所以我们应该在test和valid数据集交叉验证中获取到最好的先验分布,先验概率其实就是个超参数

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值