机器学习中的可实现情况上界与多类可学习性
在机器学习领域,可实现情况的上界以及多类可学习性是非常重要的研究方向。下面我们将详细探讨相关内容。
可实现情况的上界
首先,我们来看可实现情况下的上界问题。设 $\omega = \frac{1}{\rho}(L_D(A(S)) - \min_{h\in H} L_D(h))$,且 $\omega \in [0,1]$。通过引理 B.1,我们可以得到:
$P[L_D(A(S)) - \min_{h\in H} L_D(h) > \epsilon] = P[\omega > \frac{\epsilon}{\rho}] \geq E[\omega] - \frac{\epsilon}{\rho} \geq \frac{1}{4} - \frac{\epsilon}{\rho}$。
当选择 $\rho = 8\epsilon$ 时,如果 $m < \frac{8d}{\epsilon^2}$,那么至少以 $\frac{1}{8}$ 的概率有 $L_D(A(S)) - \min_{h\in H} L_D(h) \geq \epsilon$。
接下来,我们要证明存在常数 $C$,使得假设类 $H$ 在样本复杂度 $m_H(\epsilon,\delta) \leq C \frac{d \ln(1/\epsilon) + \ln(1/\delta)}{\epsilon}$ 下是 PAC 可学习的。我们通过证明对于 $m \geq C \frac{d \ln(1/\epsilon) + \ln(1/\delta)}{\epsilon}$,使用 ERM 规则可以学习 $H$ 来完成这个证明,而这基于 $\epsil
超级会员免费看
订阅专栏 解锁全文
20万+

被折叠的 条评论
为什么被折叠?



