在线学习与聚类算法详解
1. 在线学习模型概述
在线学习模型中,许多为PAC学习模型推导的结果在在线模型中有类似对应。首先,组合维度(Littlestone维度)可用于刻画在线可学习性。为证明这一点,引入了SOA算法(用于可实现情况)和加权多数算法(用于不可实现情况)。
1.1 在线凸优化与感知机算法
在线凸优化方面,当损失函数为凸函数且满足Lipschitz条件时,在线梯度下降是一种成功的在线学习方法。在线感知机算法则是在线梯度下降与代理凸损失函数概念的结合。
1.2 感知机算法的错误次数界
假设感知机算法在序列((x_1, y_1),…,(x_T, y_T))上运行,设(R = \max_t |x_t|),(M)为感知机出错的轮数,(f_t(w) = 1_{[t\in M]} [1 - y_t\langle w, x_t\rangle]_+)。则对于任意(w^ ),有:
[|M| \leq \sum_{t} f_t(w^ ) + R |w^ | \sqrt{\sum_{t} f_t(w^ ) + R^2 |w^ |^2}]
特别地,如果存在(w^ )使得对于所有(t)都有(y_t\langle w^ , x_t\rangle\geq1),那么(|M| \leq R^2 |w^ |^2)。
当可分性假设不成立时,界中会涉及([1 - y_t\langle w^*, x_t\rangle]_+)这一项,它衡量了带间隔可分性要求的违反程度。
超级会员免费看
订阅专栏 解锁全文
1186

被折叠的 条评论
为什么被折叠?



