【机器学习】6.贝叶斯分类器

数学基础

贝叶斯决策论(概率框架下实施决策的基础方法)

假设有N中可能的类别标记,即y={c1,c2,…,cn}, λ i j \mathop \lambda_{ij} λij是将一个真是标记为cj的样本误分类为ci所产生的损失,基于后验概率P(ci|x)可获得将样本x的分类为ci所产生的期望损失,即在样本x上的条件风险。
R ( c i ∣ x ) = ∑ j = 1 N λ i j P ( c j ∣ x ) R(c_i|x)=\sum_{j=1}^N\lambda_{ij}P(c_j|x) R(cix)=j=1NλijP(cjx)
我们的任务就是寻找一个判别准则h:x → \to y以最小化总体风险
R ( h ) = E x [ R ( h ( x ) ∣ x ) ] R(h)=E_x[R(h(x)|x)] R(h)=Ex[R(h(x)x)]
贝叶斯判定准则:为最小化总体风险,值需要选择每个样本上那个能是条件风险R(c|x)最小的类别标记
h ∗ ( x ) = a r g m a x c ∈ y R ( c ∣ x ) h^*(x)=argmax_{c\in y}R(c|x) h(x)=argmaxcyR(cx)
此时,h*称为贝叶斯最优分类器,R(h*)称为贝叶斯风险。

若目标是最小化分类错误率,损失 λ i j \lambda_{ij} λij可写为
λ i j = { 0 , if  i = j 1 , otherwise \lambda_{ij}=\begin{cases} 0, & \text {if $i=j$} \\ 1, & \text{otherwise} \end{cases} λij={ 0,1,if i=jotherwise

此时: P ( c i ∣ x ) = 1 − P ( c i ∣ x ) P(c_i|x) = 1-P(c_i|x)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值