朴素贝叶斯法

博主因看NLP论文,决定补基础机器学习算法知识。介绍了朴素贝叶斯法,它是基于贝叶斯定理与特征条件独立假设的分类方法。阐述了贝叶斯公式,解决已知某条件概率求两事件交换后概率的问题,还说明了朴素贝叶斯的原理与计算流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近看了一些NLP的论文,发现对于基础的机器学习算法还不是很熟悉,决定现在来补一下,通过看网上的一些博客和李航的《统计学习方法》来学习一些最基础的机器学习算法。

朴素贝叶斯法

朴素贝叶斯(naive bayes)法是基于贝叶斯定理与特征条件独立假设的一种分类方法,首先介绍一下贝叶斯公式。

贝叶斯公式

贝叶斯公式在概率论的课上是一个非常基础的公式,也是一个非常简单但有用的公式,这个定理解决了现实生活里经常遇到的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。公式如下:P(A∣B)⋅P(B))P(A)\frac{P(A|B)\cdot P(B))}{P(A)}P(A)P(AB)P(B))
或者在这里插入图片描述

朴素贝叶斯的原理与流程

朴素贝叶斯的思想真的非常“朴素”,我们要对某个问题进行分类,当我们知道了他具有的某个特征,求出他在具有这个特征的条件下属于某一类的概率,对比所有类别的概率,最大的那一类就是我们的结果。
我们要求的是在已知某一特征X=x的条件下属于某类Y=CkY=C_{k}Y=Ck的概率,即P(Y=Ck∣X=x)P(Y=C_{k}|X=x)P(Y=CkX=x),由贝叶斯公式可得:P(Y=Ck∣X=x)=P(Y=Ck)⋅P(X=x∣Y=Ck)∑kP(Y=Ck)⋅P(X=x∣Y=Ck)……(1)P(Y=C_{k}|X=x)=\frac{P(Y=C_{k})\cdot P(X=x|Y=C_{k})}{\sum_{k}P(Y=C_{k})\cdot P(X=x|Y=C_{k})} ……(1)P(Y=CkX=x)=kP(Y=Ck)P(X=xY=Ck)P(Y=Ck)P(X=xY=Ck)1
朴素贝叶斯法对条件概率分布作了条件独立性假设,即用于分类的特征在类确定的条件下都是条件独立的。即P(X=x∣Y=Ck)=P(X(1)=x(1),...,X(n)=x(n)∣Y=Ck)=∏j=1nP(Xj=xj∣Y=Ck)……(2)P(X=x|Y=C_{k})=P(X^{(1)}=x^{(1)},...,X^{(n)}=x^{(n)}|Y=C_{k})=\prod_{j=1}^{n}P(X^{j}=x^{j}|Y=C_{k})……(2)P(X=xY=Ck)=P(X(1)=x(1),...,X(n)=x(n)Y=Ck)=j=1nP(Xj=xjY=Ck)2
(2)代入(1)式
P(Y=Ck∣X=x)=P(Y=Ck)⋅∏j=1nP(Xj=xj∣Y=Ck)∑kP(Y=Ck)⋅∏j=1nP(Xj=xj∣Y=Ck)……(3)P(Y=C_{k}|X=x)=\frac{P(Y=C_{k})\cdot \prod_{j=1}^{n}P(X^{j}=x^{j}|Y=C_{k})}{\sum_{k}P(Y=C_{k})\cdot \prod_{j=1}^{n}P(X^{j}=x^{j}|Y=C_{k})}……(3)P(Y=CkX=x)=kP(Y=Ck)j=1nP(Xj=xjY=Ck)P(Y=Ck)j=1nP(Xj=xjY=Ck)3
由于(3)式中的分母对于所有的CkC_{k}Ck都相同,所以,y=argmaxCkP(Y=Ck)∏jP(X(j)=x(j)∣Y=Ck)y=arg max_{C_{k}}P(Y=C_{k})\prod_{j}P(X^{(j)}=x^{(j)}|Y=C_{k})y=argmaxCkP(Y=Ck)jP(X(j)=x(j)Y=Ck)
根据以上分析,朴素贝叶斯的计算流程可以归结为下图(转自https://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayesian-classifier.html)在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值