9、机器学习中的可学习性:从非均匀学习到一致性

机器学习中的可学习性:从非均匀学习到一致性

1. 非均匀可学习性的无免费午餐定理

在机器学习领域,非均匀可学习性是一个重要的概念。任何有限 VC 维类的可数并集都是非均匀可学习的。然而,对于任何无限域集 $X$,$X$ 上所有二元值函数的类并不是有限 VC 维类的可数并集。这意味着在某种意义上,无免费午餐定理对于非均匀学习同样成立:当域不是有限时,不存在针对所有确定性二元分类器类的非均匀学习器。不过,对于每个这样的分类器,都存在一个简单的算法(即仅包含该分类器的假设类的经验风险最小化算法)来学习它。

将定理中给出的非均匀可学习性结果与单独对任何特定 $H_n$ 进行不可知 PAC 学习的任务进行比较是很有趣的。非均匀学习器对 $H$ 的先验知识或偏差较弱,它在整个类 $H$ 中搜索模型,而不是专注于一个特定的 $H_n$。这种先验知识弱化的代价是,与任何特定的 $h \in H_n$ 竞争所需的样本复杂度增加。

2. 最小描述长度与奥卡姆剃刀原理
2.1 最小描述长度

设 $H$ 是一个可数假设类,我们可以将 $H$ 写成单元素类的可数并集,即 $H = \bigcup_{n \in N} {h_n}$。根据霍夫丁不等式,每个单元素类都具有均匀收敛性。此时,SRM 规则变为:
$\arg\min_{h_n \in H} \left[ L_S(h) + \sqrt{\frac{-\log(w(n)) + \log(2/\delta)}{2m}} \right]$
等价地,我们可以将 $w$ 看作是从 $H$ 到 $[0, 1]$ 的函数,那么 SRM 规则变为:
$\arg\min_{h \in H} \

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值