贝叶斯决策论(概率框架下实施决策的基础方法)
假设有N中可能的类别标记,即y={c1,c2,…,cn}, λ i j \mathop \lambda_{ij} λij是将一个真是标记为cj的样本误分类为ci所产生的损失,基于后验概率P(ci|x)可获得将样本x的分类为ci所产生的期望损失,即在样本x上的条件风险。
R ( c i ∣ x ) = ∑ j = 1 N λ i j P ( c j ∣ x ) R(c_i|x)=\sum_{j=1}^N\lambda_{ij}P(c_j|x) R(ci∣x)=j=1∑NλijP(cj∣x)
我们的任务就是寻找一个判别准则h:x → \to →y以最小化总体风险
R ( h ) = E x [ R ( h ( x ) ∣ x ) ] R(h)=E_x[R(h(x)|x)] R(h)=Ex[R(h(x)∣x)]
贝叶斯判定准则:为最小化总体风险,值需要选择每个样本上那个能是条件风险R(c|x)最小的类别标记
h ∗ ( x ) = a r g m a x c ∈ y R ( c ∣ x ) h^*(x)=argmax_{c\in y}R(c|x) h∗(x)=argmaxc∈yR(c∣x)
此时,h*称为贝叶斯最优分类器,R(h*)称为贝叶斯风险。
若目标是最小化分类错误率,损失 λ i j \lambda_{ij} λij可写为
λ i j = { 0 , if i = j 1 , otherwise \lambda_{ij}=\begin{cases} 0, & \text {if $i=j$} \\ 1, & \text{otherwise} \end{cases} λij={
0,1,if i=jotherwise
此时: P ( c i ∣ x ) = 1 − P ( c i ∣ x ) P(c_i|x) = 1-P(c_i|x)