机器学习笔记--常见算法(5)--朴素贝叶斯分类器

本文深入解析了朴素贝叶斯分类器的工作原理,包括其核心假设、模型评价及适用场景。阐述了条件概率计算方法,以及如何利用贝叶斯准则进行决策。通过实例说明了如何使用条件概率进行分类,特别强调了特征独立性和等权性假设的重要性。

朴素贝叶斯分类器

模型评价:

优点:在数据较少的情况下仍然有效,可以处理多类别问题

缺点:对于输入数据的准备方式较为敏感

适用数据类型:标称型数据

贝叶斯决策理论的核心思想:选择具有最高概率的决策

条件概率

计算条件概率的方法

①条件概率计算公式: p(B∣A)=P(AB)P(A)p(B|A) = \frac{P(AB)}{P(A)}p(BA)=P(A)P(AB)

②贝叶斯准则:贝叶斯准则告诉我们如何交换条件概率中的条件与结果。

p(ci∣w)=p(w∣ci)p(ci)p(w)p(c_i|w) = \frac{p(w|c_i)p(c_i)}{p(w)}p(ciw)=p(w)p(wci)p(ci)

使用条件概率来分类:

如果p(c1∣x,y)>p(c2∣x,y)p(c_1|x, y) > p(c_2|x, y)p(c1x,y)>p(c2x,y), 那么属于类别c1c_1c1

如果p(c1∣x,y)&lt;p(c2∣x,y)p(c_1|x, y) &lt; p(c_2|x, y)p(c1x,y)<p(c2x,y), 那么属于类别c2c_2c2

使用贝叶斯准则,可以通过已知的三个概率值来计算未知的概率值。

朴素贝叶斯分类器假设:

①特征之间相互独立。这个假设是朴素贝叶斯分类器中"朴素"(naive)一词的含义

②每个特征同等重要

因为特征之间相互独立,所以,

p(w∣ci)=p(w0∣ci)p(w1∣ci)…p(wN∣ci)p(w|c_i)=p(w_0|c_i)p(w_1|c_i)…p(w_N|c_i)p(wci)=p(w0ci)p(w1ci)p(wNci)

所以,

p(ci∣w)=p(ci)∏i=1Np(wi∣ci)p(w)p(c_i|w) = \frac{p(c_i)\prod_{i=1}^{N}p(w_i|c_i)}{p(w)}p(ciw)=p(w)p(ci)i=1Np(wici)

因为p(w)是个常数,所以,

p(ci∣w)=∝p(ci)∏i=1Np(wi∣ci)p(c_i|w) = \propto p(c_i)\prod_{i=1}^{N}p(w_i|c_i)p(ciw)=p(ci)i=1Np(wici)

故,c^=argmaxcP(c)∏i=1NP(wi∣c)\hat{c} = arg \underset{c}{max}P(c)\prod_{i=1}^{N}P(w_i|c)c^=argcmaxP(c)i=1NP(wic)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值