9、学习理论中的不同可学习性概念及相关原理

学习理论中的不同可学习性概念及相关原理

1. 非均匀可学习性的无免费午餐定理

对于非均匀可学习性,存在一个重要的结论:任何有限 VC 维类的可数并集是非均匀可学习的。然而,对于任何无限域集 $X$,$X$ 上所有二元值函数的类并不是有限 VC 维类的可数并集。这意味着在某种意义上,无免费午餐定理对于非均匀学习同样成立,即当域不是有限时,对于所有确定性二元分类器的类,不存在非均匀学习器。不过,对于每个这样的分类器,存在一个简单的算法(即仅包含该分类器的假设类的经验风险最小化算法)来学习它。

将定理中给出的非均匀可学习性结果与单独对任何特定 $H_n$ 进行不可知 PAC 学习的任务进行比较是很有趣的。非均匀学习器对于 $H$ 的先验知识或偏差较弱,它在整个类 $H$ 中搜索模型,而不是专注于一个特定的 $H_n$。这种先验知识弱化的代价是,为了与 $H_n$ 中的任何特定 $h$ 竞争,所需的样本复杂度增加。

具体来说,假设对于所有 $n$,$VCdim(H_n) = n$,通过简单计算可得:
$m_{NUL}^H(\epsilon,\delta,h) - m_{UC}^{H_n}(\epsilon/2,\delta) \leq \frac{4C \cdot 2\log(2n)}{\epsilon^2}$
这表明,将学习器的先验知识从包含目标 $h$ 的特定 $H_n$ 放宽到可数并集的代价,取决于 $h$ 所在的第一个类的索引的对数。这个代价随着类的索引增加而增加,这反映了知道 $H$ 中假设的良好优先级顺序的价值。

2. 最小描述长度与奥卡姆剃刀原理

2.1 最小描述长度学习范式

设 $H$

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值