《统计学习方法》(第四章)——朴素贝叶斯

朴素贝叶斯的学习与分类

  • 基本方法
      定义:设输入空间χ⊆Rn\chi\subseteq R^nχRn为n维向量的集合,输出空间为类标记集合γ={c1,c2,..,ck}.\gamma=\{c_1,c_2,..,c_k\}.γ={c1,c2,..,ck}.输入的特征向量x∈χ,x \in \chi ,xχ,输出类别y∈γ.Xy\in\gamma .Xyγ.X是定义在输入空间χ\chiχ上的随机向量,YYY是定义在输出空间γ\gammaγ上的随机变量。P(X,Y)P(X,Y)P(X,Y)XXXYYY的联合概率分布.训练数据集
          T={(x1,y1),(x2,y2),...,(xN,yN)}T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}T={(x1,y1),(x2,y2),...,(xN,yN)}P(X,Y)P(X,Y)P(X,Y)独立同分布产生.
      朴素贝叶斯通过训练数据生成P(X,Y).P(X,Y).P(X,Y). 具体地,学习以下两个先验概率分布
          P(Y=ck),k=1,2,...,KP(Y=c_k),k=1,2,...,KP(Y=ck),k=1,2,...,K
          P(X=x∣Y=ck)=P(X(1)=x(1),...,X(n)=x(n)∣Y=ck),k=1,2,..,KP(X=x|Y=c_k)=P(X^{(1)}=x^{(1)},...,X^{(n)}=x^{(n)}|Y=c_k),k=1,2,..,KP(X=xY=ck)=P(X(1)=x(1),...,X(n)=x(n)Y=ck),k=1,2,..,K
      于是我们就学到联合概率分布,因为参数很多,我们假设所有条件独立。
          P(X=x∣Y=ck)=P(X(1)=x(1),...,X(n)=x(n)∣Y=ck)=∏i=1NP(X(i)=x(i)∣Y=ck)P(X=x|Y=c_k)=P(X^{(1)}=x^{(1)},...,X^{(n)}=x^{(n)}|Y=c_k)=\prod_{i=1}^N P(X^{(i)}=x^{(i)}|Y=c_k)P(X=xY=ck)=P(X(1)=x(1),...,X(n)=x(n)Y=ck)=i=1NP(X(i)=x(i)Y=ck)
      因此对于实例我们可以这样预测
          P(Y=ck∣X=x)=P(X=x∣Y=ck)∗P(Y=ck)∑iP(X=x∣Y=ci)∗P(Y=ci)P(Y=c_k|X=x)=\frac{P(X=x|Y=c_k)*P(Y=c_k)}{\sum\limits_iP(X=x|Y=c_i)*P(Y=c_i)}P(Y=ckX=x)=iP(X=xY=ci)P(Y=ci)P(X=xY=ck)P(Y=ck)
          P(Y=ck∣X=x)=∏i=1NP(X(i)=x(i)∣Y=ck)∗P(Y=ck)∑i∏i=1NP(X(j)=x(j)∣Y=ck)∗P(Y=ck),k=1,2,...,KP(Y=c_k|X=x)=\frac{\prod_{i=1}^N P(X^{(i)}=x^{(i)}|Y=c_k)*P(Y=c_k)}{\sum\limits_i\prod_{i=1}^N P(X^{(j)}=x^{(j)}|Y=c_k)*P(Y=c_k)},k=1,2,...,KP(Y=ckX=x)=ii=1NP(X(j)=x(j)Y=ck)P(Y=ck)i=1NP(X(i)=x(i)Y=ck)P(Y=ck),k=1,2,...,K
          y=f(x)=argmaxck=∏i=1NP(X(i)=x(i)∣Y=ck)∗P(Y=ck)∑i∏i=1NP(X(j)=x(j)∣Y=ck)∗P(Y=ck)y=f(x)=argmax_{c_k}=\frac{\prod_{i=1}^N P(X^{(i)}=x^{(i)}|Y=c_k)*P(Y=c_k)}{\sum\limits_i\prod_{i=1}^N P(X^{(j)}=x^{(j)}|Y=c_k)*P(Y=c_k)}y=f(x)=argmaxck=ii=1NP(X(j)=x(j)Y=ck)P(Y=ck)i=1NP(X(i)=x(i)Y=ck)P(Y=ck)
          y=f(x)=argmaxckP(Y=ck)∗∏i=1NP(X(i)=x(i)∣Y=ck)y=f(x)=argmax_{c_k}P(Y=c_k)*\prod_{i=1}^N P(X^{(i)}=x^{(i)}|Y=c_k)y=f(x)=argmaxckP(Y=ck)i=1NP(X(i)=x(i)Y=ck)

  • 后验概率最大化的含义
      后验概率最大类,等价于期望风险最小化。假设选择0−10-101损失函数
          L(Y,f(X))={+1Y≠f(X)−1Y=f(X)L(Y,f(X))=\begin{cases} +1 &Y\ne f(X)\\ -1 &Y= f(X)\\ \end{cases}L(Y,f(X))={+11Y=f(X)Y=f(X)
        这里f(X)f(X)f(X)是决策函数,这时期望风险函数为Rexp(f)=E[L(Y,f(X))]R_{exp}(f)=E[L(Y,f(X))]Rexp(f)=E[L(Y,f(X))]其为对联合概率分布P(X,Y)P(X,Y)P(X,Y)取的
      所以Rexp(f)=EX[∑k=1K[L(ck,f(X))]∗P(ck∣X)]R_{exp}(f)=E_{X}[\sum\limits_{k=1}^K[L(c_k,f(X))]*P(c_k|X)]Rexp(f)=EX[k=1K[L(ck,f(X))]P(ckX)],为了其最小化只需针对每个xxx最小化就好了
      f(x)=argminy∈γ∑k=1KL(ck,y)∗P(ck∣X=x)=argminy∈γ∑k=1KP(y≠ck∣X=x)f(x)=argmin_{y \in\gamma}\sum\limits_{k=1}^KL(c_k,y)*P(c_k|X=x)=argmin_{y \in\gamma}\sum\limits_{k=1}^KP(y \ne c_k|X=x)f(x)=argminyγk=1KL(ck,y)P(ckX=x)=argminyγk=1KP(y=ckX=x)
         =argminy∈γ(1−P(y=ck∣X=x))=argmaxy∈γP(y=ck∣X=x)=argmin_{y \in\gamma}(1-P(y = c_k|X=x))=argmax_{y \in\gamma}P(y = c_k|X=x)=argminyγ(1P(y=ckX=x))=argmaxyγP(y=ckX=x)
         所以得到,f(x)=argmaxy∈γP(y=ck∣X=x)f(x)=argmax_{y \in\gamma}P(y = c_k|X=x)f(x)=argmaxyγP(y=ckX=x)

朴素贝叶斯的参数估计

  • 极大似然估计
         P(Y=ck)=∑i=1NI(yi=ck)N,k=1,2,...,KP(Y=c_k)=\frac{\sum\limits_{i=1}^NI(y_i=c_k)}{N},k=1,2,...,KP(Y=ck)=Ni=1NI(yi=ck),k=1,2,...,K
         P(X(j)=ajl∣Y=ck)=∑i=1NI(xi(j)=ajl,yi=ck)∑i=1NI(yi=ck),j=1,2,...,n;l=1,2,..,Sj;k=1,2,...,KP(X^{(j)}=a_{jl}|Y=c_k)=\frac{\sum\limits_{i=1}^NI(x_i^{(j)}=a_{jl},y_i=c_k)}{\sum\limits_{i=1}^NI(y_i=c_k)},j=1,2,...,n;l=1,2,..,S_j;k=1,2,...,KP(X(j)=ajlY=ck)=i=1NI(yi=ck)i=1NI(xi(j)=ajl,yi=ck),j=1,2,...,n;l=1,2,..,Sj;k=1,2,...,K,ajla_{jl}ajl为第jjj个特征可能取值
  • 学习与分类算法
      按照极大似然估计统计出来后计算P(Y=ck)∗∏i=1NP(X(i)=x(i)∣Y=ck),k=1,2,...,KP(Y=c_k)*\prod_{i=1}^N P(X^{(i)}=x^{(i)}|Y=c_k),k=1,2,...,KP(Y=ck)i=1NP(X(i)=x(i)Y=ck),k=1,2,...,K
      y=f(x)=argmaxy∈γP(y=ck∣X=x)y=f(x)=argmax_{y \in\gamma}P(y = c_k|X=x)y=f(x)=argmaxyγP(y=ckX=x)
  • 贝叶斯估计
      因为直接统计会出现概率为0的现象,这很不合理,出现偏差。这时我们进行平滑处理,
         P(Y=ck)=∑i=1NI(yi=ck)+λN+K∗λ,k=1,2,...,KP(Y=c_k)=\frac{\sum\limits_{i=1}^NI(y_i=c_k)+\lambda}{N+K*\lambda},k=1,2,...,KP(Y=ck)=N+Kλi=1NI(yi=ck)+λ,k=1,2,...,K
         P(X(j)=ajl∣Y=ck)=∑i=1NI(xi(j)=ajl,yi=ck)+λ∑i=1NI(yi=ck)+Sj∗λ,j=1,2,...,n;l=1,2,..,Sj;k=1,2,...,KP(X^{(j)}=a_{jl}|Y=c_k)=\frac{\sum\limits_{i=1}^NI(x_i^{(j)}=a_{jl},y_i=c_k)+\lambda}{\sum\limits_{i=1}^NI(y_i=c_k)+S_j*\lambda},j=1,2,...,n;l=1,2,..,S_j;k=1,2,...,KP(X(j)=ajlY=ck)=i=1NI(yi=ck)+Sjλi=1NI(xi(j)=ajl,yi=ck)+λ,j=1,2,...,n;l=1,2,..,Sj;k=1,2,...,K,ajla_{jl}ajl
         KKK为种类数,SjS_jSj为属性jjj的个数
课后实现
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值