机器学习系统开发全流程解析
1. 算法评估与在线学习
在机器学习中,我们常使用“遗憾值(Regret)”来衡量算法的成功程度。遗憾值指的是与事后看来预测记录最佳的专家相比,我们额外犯下的错误数量。设 $M^ $ 为最佳专家所犯的错误数量,那么随机加权多数算法所犯的错误数量 $M$ 有如下上限:
[M < \frac{M^ \ln(1/\beta) + \ln K}{1 - \beta}]
这个界限适用于任何示例序列,即使是由试图使算法表现最差的对手所选择的序列。具体来说,当有 $K = 10$ 个专家时,如果我们选择 $\beta = 1/2$,那么错误数量的上限为 $1.39M^ + 4.6$;如果 $\beta = 3/4$,则上限为 $1.15M^ + 9.2$。
一般而言,如果 $\beta$ 接近 1,从长远来看,算法对变化的响应会更灵敏;若最佳专家发生变化,算法能在不久后察觉。然而,在开始阶段,当所有专家被同等信任时,我们会付出代价,可能会在过长时间内接受不良专家的建议。当 $\beta$ 接近 0 时,这两种情况则相反。值得注意的是,我们可以选择合适的 $\beta$,使 $M$ 在长期内渐近地接近 $M^*$,这被称为无遗憾学习(No - regret learning),因为随着试验次数的增加,每次试验的平均遗憾值趋于 0。
在线学习在数据随时间快速变化的情况下非常有用,对于涉及不断增长的大量数据的应用也很有帮助,即使变化是渐进的。例如,对于包含数百万张网络图像的数据集,每次添加一张新图像时都从头开始重新训练是不切实际的。更实用的方法是采用一种允许逐步添加图像的在线算法。对于大多数基于最小化损
超级会员免费看
订阅专栏 解锁全文
4209

被折叠的 条评论
为什么被折叠?



