第四章 朴素贝叶斯法
概述
基本思想:对于给定的数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布,然后基于此模型,对于给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。
特点:实现简单;学习和预测的效率都很高;很常用。
4.1 朴素贝叶斯法的学习与分类
给定数据集
T={(x1,y1),(x2,y2),⋯,(xN,yN)}T={(x1,y1),(x2,y2),⋯,(xN,yN)}
学习目标:学习联合概率分布。
几个概念:
1.先验概率分布:
P(Y=ck),k=1,2,⋯,KP(Y=ck),k=1,2,⋯,K
2.后验概率
学习到的联合概率分布。
4.2 朴素贝叶斯法的参数估计
极大似然估计
先验概率P(Y=ck)P(Y=ck)的极大似然估计:
P(Y=ck)=∑i=1NI(yi=ck)N,k=1,2,⋯,KP(Y=ck)=∑i=1NI(yi=ck)N,k=1,2,⋯,K
条件概率P(X(j)=x(j)|Y=ck)P(X(j)=x(j)|Y=ck)的极大似然估计是:
P(X(j)=x(j)|Y=ck)=∑i=1NI(x(j)i=ajl,yi=ck)∑i=1NI(yi=ck)P(X(j)=x(j)|Y=ck)=∑i=1NI(xi(j)=ajl,yi=ck)∑i=1NI(yi=ck)
j=1,2,…,n;l=1,2,…,S;k=1,2,…,K
式中,x(j)ixi(j)是第i个样本的第j个特征,ajlajl是第j个特征可能取的第l个值;I为指示函数
学习与分类算法
算法4.1(朴素贝叶斯算法)
(1)计算先验概率及条件概率
(2)对于给定的实例x=(x(1),x(2),⋯,x(n))Tx=(x(1),x(2),⋯,x(n))T,计算
P(Y=ck)∏j=1nP(X(j)=x(j)|Y=ck),k=1,2,⋯,KP(Y=ck)∏j=1nP(X(j)=x(j)|Y=ck),k=1,2,⋯,K
(3)确定实例x的类
y=argmaxckP(Y=ck)∏j=1nP(X(j)=x(j)|Y=ck)y=argmaxckP(Y=ck)∏j=1nP(X(j)=x(j)|Y=ck)
贝叶斯估计
条件概率的贝叶斯估计:
P(X(j)=x(j)|Y=ck)=∑i=1NI(x(j)i=ajl,yi=ck)+λ∑i=1NI(yi=ck)+SjλP(X(j)=x(j)|Y=ck)=∑i=1NI(xi(j)=ajl,yi=ck)+λ∑i=1NI(yi=ck)+Sjλ
先验概率的贝叶斯估计为:
P(Y=ck)=∑i=1NI(yi=ck)+λN+KλP(Y=ck)=∑i=1NI(yi=ck)+λN+Kλ
式中,λ≥0λ≥0;当λ=0λ=0时就是极大似然估计,常取λ=1λ=1,这是称为拉普拉斯平滑