10、鲁棒集成学习:从 AdaBoost 到新型算法的探索

鲁棒集成学习:从 AdaBoost 到新型算法的探索

1. 引言

集成学习方法,尤其是 AdaBoost,在光学字符识别等诸多应用中取得了显著成功。AdaBoost 通过在误差函数中进行梯度下降,渐近地聚焦于最难学习的模式,其大(最小)边际的思想解释了它在低噪声环境下的良好泛化性能。然而,在处理噪声任务时,如鸢尾花和乳腺癌基准数据集,AdaBoost 的表现往往不尽如人意。理论分析表明,边际分布(而非仅仅最小边际)在理解这一现象中起着关键作用。为了应对这一问题,需要构建正则化的 AdaBoost 变体,以平衡边际误差数量和边际大小,但目前的方法大多采用启发式参数,缺乏直观解释且难以调整。

2. AdaBoost 与线性规划解决方案

在深入探讨新算法之前,我们先回顾标准 AdaBoost 和密切相关的 Arc - GV 所生成的解决方案的特性,并讨论它们与基于基假设类 G 的线性规划(LP)解决方案的关系。

设 ${g_t(x): t = 1, \cdots, T}$ 是一系列假设,$\alpha = [\alpha_1 \cdots \alpha_T]$ 是它们的权重,满足 $\alpha_t \geq 0$。假设 $g_t$ 是假设类 $G = {g: x \mapsto {\pm1}}$ 的元素,该类由基学习算法 L 定义。集成通过 $sgn(f(x))$ 生成标签,其中 $f(x) = \sum_{t} \frac{\alpha_t}{|\alpha|_1} g_t(x)$。

为了表达 $f$ 以及边际 $\rho$ 依赖于 $\alpha$,我们定义 $\rho(z, \alpha) := y f(x)$,其中 $z := (x

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值