在线学习:原理、算法与性能分析
1. 在线学习概述
在线学习是一种与传统PAC学习模型不同的学习模式。在PAC学习中,学习者首先接收一批训练示例,利用训练集学习一个假设,学习完成后再使用该假设对新示例进行预测。例如在木瓜学习问题中,需要先购买一批木瓜并品尝,然后利用这些信息学习预测规则来判断新木瓜的口味。
而在线学习中,训练阶段和预测阶段没有明显区分。每次购买木瓜时,先将其视为测试示例,预测其口味,品尝后得知真实标签,该木瓜又可作为训练示例,帮助改进未来的预测机制。
具体来说,在线学习按连续轮次进行:
1. 学习者接收一个实例(如购买木瓜并了解其形状和颜色)。
2. 学习者预测标签(判断木瓜是否美味)。
3. 学习者获得正确标签(品尝木瓜得知结果)。
4. 学习者利用此信息改进未来预测。
为分析在线学习,我们从在线二分类问题入手,考虑可实现情况(假设所有标签由给定假设类中的某个假设生成)和不可实现情况(对应无偏PAC学习模型),还会介绍加权多数算法等重要算法,研究损失函数为凸函数的在线学习问题,并以感知机算法为例说明在线学习模型中替代凸损失函数的使用。
2. 可实现情况下的在线分类
2.1 基本概念与问题设定
在线学习在连续轮次中进行,在第t轮,学习者获得实例$x_t$,需预测其标签$p_t$,之后得知正确标签$y_t \in {0, 1}$。学习者的目标是在过程中尽量减少预测错误,通过前几轮信息改进未来预测。
若前后轮次无关联,学习将无法进行。在PAC模型中,假设前后示例独立同分布采样,但在线学习模型对示例序列的来源无统计假设,序列
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



