西瓜书_chapter7_贝叶斯分类器

本文详细介绍了贝叶斯分类器的理论和应用,包括贝叶斯决策论、极大似然估计、朴素贝叶斯分类器、半朴素贝叶斯分类器(如SPODE、TAN和AODE)以及贝叶斯网的结构、学习和推测。文中探讨了属性条件独立性假设及其放松,并阐述了EM算法在处理隐变量时的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

7.1 贝叶斯决策论

对于分类任务,贝叶斯决策论是在所有相关概率都已知的理想情形下,考虑如何基于概率和误判损失来选择最优的类别标记。
假设有N种可能的类别标记,即Y={ c1,c2,...,cN}Y=\{c_1,c_2,...,c_N\}Y={ c1,c2,...,cN}λij\lambda_{ij}λij是将一个真实标记为cjc_jcj的样本误分类为cic_ici所产生的损失,那么我们可以基于后验概率来刻画把xxx分类为cic_ici损失期望
R(ci∣x)=∑j=1NλijP(cj∣x)R(c_i|x)=\sum_{j=1}^N\lambda_{ij}P(c_j|x)R(cix)=j=1NλijP(cjx)
我们的任务是寻找一个判定准则hhh,来最小化风险
R(h)=Ex[R(h(x)∣x)].R(h)=\mathbb{E}_x[R(h(x)|x)].R(h)=Ex[R(h(x)x)].
贝叶斯判定准则:为了最小化总体风险,只需要在每个样本上选择能使条件风险R(c∣x)R(c|x)R(cx)最小的类别标记,即
h∗(x)=arg⁡min⁡c∈yR(c∣x)h^*(x)=\mathop{\arg\min}\limits_{c\in y} R(c|x)h(x)=cyargminR(cx)
此时,我们把h∗h^*h称为贝叶斯最优分类器,与之对应的,我们称R(h∗)R(h^*)R(h)为贝叶斯风险,1−R(h∗)1-R(h^*)1R(h)反映了分类器能达到的最好性能。
如果我们额目标是最小化分类错误率,那么误判损失λij\lambda_{ij}λij可写为
λ=1−I(i,j)\lambda=1-\mathbb{I}(i,j)λ=1I(i,j)
那么这个时候的条件风险就可以表示为
R(c∣x)=1−p(c∣x)R(c|x)=1-p(c|x)R(cx)=1p(cx)
最优分类器就等价于
h∗(x)=arg⁡max⁡c∈yP(c∣x)h^*(x)=\mathop{\arg\max}\limits_{c\in y} P(c|x)h(x)=cyargmaxP(cx)
这里给出生成式模型判别式模型的概念。
所谓生成式模型,指的是先对P(c,x)P(c,x)P(c,x)进行建模,然后再得到P(c∣x)P(c|x)P(cx);而判别式模型则是直接对P(c∣x)P(c|x)P(cx)进行建模,如我们前边介绍的决策树、SVM等。
对于生成式模型,由贝叶斯公式
P(c∣x)=P(c)P(x∣c)P(x)=P(c,x)P(x)P(c|x)=\frac{P(c)P(x|c)}{P(x)}=\frac{P(c,x)}{P(x)}P(cx)=P(x)P(c)P(xc)=P(x)P(c,x)
注意P(x)P(x)P(x)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值