朴素贝叶斯分类器

本文详细介绍了朴素贝叶斯分类器的工作原理,包括其在数据较少时的有效性,处理多类别问题的能力,以及对输入数据敏感的特点。通过平面直角坐标系上的数据分布示例,解释了如何利用条件概率进行类别决策。此外,还讨论了从词向量计算概率的方法,并给出了计算条件概率的伪代码。朴素贝叶斯分类器在信息技术领域,如文本分类和信息检索中有着广泛应用。

贝叶斯分类器

  • 优点: 数据较少任然有效,可以处理多类别的问题
  • 缺点: 输入数据准备方式比价敏感
  • 数据类型: 标称型数据

朴素贝叶斯决策理论

假设有两类数据:A和B假设有两类数据:A和B假设有两类数据:AB

平面直角坐标系上分布着A与B类型的数据

对于一个未知类型的数据点(x,y)

P1(x,y)表示数据点(x,y)属于类别A的概率P2(x,y)表示数据点(x,y)属于类别B的概率 P1(x,y)表示数据点(x,y)属于类别A的概率\\ P2(x,y)表示数据点(x,y)属于类别B的概率 P1(x,y)表示数据点(x,y)属于类别A的概率P2(x,y)表示数据点(x,y)属于类别B的概率

我们选取概率较大的作为该数据的类别,即最高概率的决策。

使用条件概率来决策

计算P1(x,y)和P2(x,y),其实是计算P(A|x,y)和P(B|x,y),即计算P(x,y)的条件概率。

贝叶斯条件概率公式有:
p(A∣x,y)=p(x,y∣A)∗p(A)p(x,y) p(A|x,y)=\frac{p(x,y|A)*p(A)}{p(x,y)} p(Ax,y)=p(x,y)p(x,yA)p(A)

从词向量计算概率

(x,y)(x,y)(x,y)替换成ω\omegaω,ω\omegaω是一个向量。

ci,i=1,2,3…c_i,i=1,2,3…ci,i=1,2,3表示类别,有:

p(ci∣ω)=p(ω∣ci)∗p(ci)p(ω) p(c_i|\omega)=\frac{p(\omega|c_i)*p(c_i)}{p(\omega)} p(ciω)=p(ω)p(ωci)p(ci)
利用贝叶斯条件独立性:
p(ω∣ci)=∏j=1np(wj∣ci) p(\omega|c_i)=\prod_{j=1}^np(w_j|c_i) p(ωci)=j=1np(wjci)

伪代码如下:

计算每个类别中的文档数目
对每篇训练文档:
    对每个类别:
        如果词条出现在文档中-->增加该词条的计数值
        增加所有词条的计数值
    对每个类别:
        对每个词条:
            将该词条的数目除以总词条数目得到条件概率
    返回每个类别的条件概率
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值