机器学习中的可实现情况上界与多类可学习性
在机器学习领域,可学习性和样本复杂度是非常重要的概念。本文将深入探讨可实现情况下的上界证明,以及多类预测器的PAC可学习性相关内容。
可实现情况的上界证明
在可实现情况下,我们旨在证明存在一个常数 $C$,使得假设类 $H$ 具有PAC可学习性,其样本复杂度满足一定的条件。
首先,定义 $\ell = \frac{1}{\rho}(L_D(A(S)) - \min_{h\in H}L_D(h))$,且 $\ell \in [0,1]$。通过一系列推导,我们可以得到:
$P[L_D(A(S)) - \min_{h\in H}L_D(h) > \epsilon] = P[\ell > \frac{\epsilon}{\rho}] \geq E[\ell] - \frac{\epsilon}{\rho} \geq \frac{1}{4} - \frac{\epsilon}{\rho}$。
当选择 $\rho = 8\epsilon$ 时,如果 $m < \frac{8d}{\epsilon^2}$,那么至少以 $\frac{1}{8}$ 的概率有 $L_D(A(S)) - \min_{h\in H}L_D(h) \geq \epsilon$。
接下来,我们基于 $\epsilon$-网的概念来证明假设类 $H$ 的可学习性。
- $\epsilon$-网的定义 :设 $X$ 是一个域,$S \subset X$ 是关于 $X$ 上分布 $D$ 的 $H \subset 2^X$ 的 $\epsilon$-网,当且仅当对于
超级会员免费看
订阅专栏 解锁全文
2241

被折叠的 条评论
为什么被折叠?



