朴素贝叶斯分类

参考 《统计学习方法》 李航

朴素贝叶斯

朴素贝叶斯法是基于贝叶斯定理的与特征条件独立假设的分类方法。通过学习输入输出的联合概率分布,进行分类。

基本方法

P(x,y) 是X和Y的联合概率分布,训练集 T={(x1,y1),(x2,y2),...,(xN,yN)} P(x,y) 独立同分布产生。朴素贝叶斯学习以先验概率分布及条件概率分布( ck 表示输出空间的类别):

P(Y=ck)

P(X=x|Y=ck)=P(X(1)=x(1),...,X(n)=x(n)|Y=ck)

于是就可以学习到联合概率分布 P(x,y) ,朴素贝叶斯法对条件概率作了独立性假设。条件独立假设等于是说用于分类的特征在类别确定的条件下都是条件独立的,这一假设使得问题简单,但会牺牲一定的分类准确率。可以得到:
P(X=x|Y=ck)=P(X(1)=x(1),...,X(n)=x(n)|Y=ck)=j=1nP(X(j)=x(j)|Y=ck)

对于给定的输入 x ,通过学习得到模型计算后验概率分布为P(Y=ck|X=x),将后验概率最大的类作为x的类输出。后验概率根据贝叶斯定理与全概率公式计算:
P(Y=cK|X=x)=P(X=x|Y=ck)P(Y=ck)kP(X=x|Y=ck)P(Y=ck)

有独立性带入得到:
y=argmaxckP(Y=ck)jP(X(j)=x(j)|Y=ck)

即得到了期望风险最小化的贝叶斯准则。

朴素贝叶斯算法步骤总结

ajl 表示第j个特征的可能取的第l个值,其中 j=1,2,...,n , l=1,2,...,Sj
1)计算先验概率和条件概率

P(Y=ck)=Ni=1I(yi=ck)N

P(X(j)=ajl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)Ni=1I(yi=ck)

2)对于给定的实例 x ,计算P(Y=ck)jP(X(j)=x(j)|Y=ck)
3)选择后验概率最大的进行分类

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值