粗糙集多标准分类与反可学习数据分类研究
1. 统计VC - DRSA相关内容
在多标准分类的粗糙集方法中,有一种基于优势的粗糙集方法(DRSA)。对于每个点 $x$,分类器 $f$ 会为其分配一个类别区间 $[l(x), u(x)]$,该区间的上下端点需与优势原则保持一致,即:
- 若 $x_i D x_j$,则 $l(x_i) \geq l(x_j)$,$\forall x_i, x_j \in X$;
- 若 $x_i D x_j$,则 $u(x_i) \geq u(x_j)$,$\forall x_i, x_j \in X$。
损失函数 $L(f(x), y)$ 由两部分组成:
- 第一部分是对区间大小(不精确程度)的惩罚,等于 $a(u(x) - l(x))$;
- 第二部分衡量分类的准确性,若 $y \in [l(x), u(x)]$,则为 0,否则 $f(x)$ 会遭受额外损失,该损失等于 $y$ 到较近区间边界的距离,即 $L(f(x), y) = a(u(x) - l(x)) + I(y \notin [l(x), u(x)]) \min{|y - l(x)|, |y - u(x)|}$,其中 $I(\cdot)$ 是指示函数。
有定理表明,在所有满足上述优势原则的区间函数中,使经验风险最小化的函数 $f^ $ 与一致性水平 $\alpha = 1 - a$ 的统计 VC - DRSA 等价,即对于每个 $x \in X$,$x \in Cl_{\geq t}$ 或 $x \in Cl_{\leq t}$ 当且仅当 $t \in f^ (x)$。
统计 VC - DRSA 可通过考虑
超级会员免费看
订阅专栏 解锁全文
54

被折叠的 条评论
为什么被折叠?



