第4章 机器学习基础
4.1 机器学习的四个分支
- 在前面的例子中,你已经熟悉了三种类型的机器学习问题:二分类问题、多分类问题和标量回归问题。。这三者都是监督学习(supervised learning)的例子,其目标是学习训练输入与训练目标之间的关系。
4.1.1 监督学习
- 监督学习是目前最常见的机器学习类型。给定一组样本(通常由人工标注),它可以学会将输入数据映射到已知目标(也叫标注(annotation))。一般来说,近年来广受关注的深度学习应用几乎都属于监督学习,比如光学字符识别、语音识别、图像分类和语音翻译。
- 虽然监督学习主要包括分类和回归,但还有更多的奇特变体,主要包括如下几种:(1)序列生成(sequence generation):给定一张图像,预测描述图像的文字。序列生成有时可以被重新表示为一系列分类问题,比如反复预测序列中的单词或标记。(2)语法树预测(syntax tree prediction):给定一个句子,预测其分解生成的语法树。(3)目标检测(object dectection):给定一张图像,在图中特定目标的周围画一个边界框。这个问题也可以表示为分类问题(给定多个候选边界框,对每个框内的目标进行分类)或分类与回归联合问题(用向量回归来预测边界框的坐标)。(4)图像分割(image segmentation):给定一张图像,在特定物体上画一个像素级的掩模(mask)。
4.1.2 无监督学习
- 无监督学习是指在没有目标的情况下寻找输入数据的有趣变换,其目的在于数据可视化、数据压缩、数据去噪或更好地理解数据中的相关性。无监督学习是数据分析的必备技能,在解决监督学习问题之前,为了更好地了解数据集,它通常是一个必要步骤。降维(dimensionality reduction)和聚类(clustering)都是众所周知的无监督学习方法。
4.1.3 自监督学习
- 自监督学习是监督学习的一个特例,它与众不同,值得单独归为一类。自监督学习是没有人工标注的标签的监督学习,你可以将它看作没有人类参与的监督学习。标签仍然存在(因为总要有什么东西来监督学习过程),但它们是从上输入数据中生成的,通常是使用启发式算法生成的。
- 自编码器(autoencoder)是有名的自监督学习的例子,其生成的目标就是未经修改的输入。同样,给定视频中过去的帧来预测下一帧,或者给定文本中前面的词来预测下一个词,都是自监督学习的例子(这两个例子也属于时序监督学习(temporally supervised learning),即用未来的输入数据作为监督)。注意,监督学习、自监督学习和无监督学习之间的区别有时很模糊,这三个类别更像是没有明确界限的连续体。自监督学习可以被重新解释为监督学习或无监督学习,这取决于你关注的是学习机制还是应用场景。
4.1.4 强化学习
- 强化学习一直以来被人们所忽视,但最近随着Google的DeepMind公司将其成功应用于学习玩Atari游戏(以及后来学习下围棋并达到最高水平),机器学习的这一分支开始受到大量关注。在强化学习中,智能体(agent)接收有关其环境的信息,并学习会选择使其某种奖励最大化的行动。例如,神经网络会“观察”视频游戏的屏幕并输出游戏操作,目的是尽可能得高分,这种神经网络可以通过强化学习来训练。
- 目前,强化学习主要集中在研究领域,除游戏外还没有取得实践上的重大成功。但是,我们期待强化学习未来能够实现越来越多的实际应用:自动驾驶汽车、机器人、资源管理、教育等。强化学习的时代已经到来,或即将到来。
- 样本(sample)或输入(input):进入模型的数据点。
- 预测(prediction)或输出(output):从模型出来的结果。
- 目标(target):真实值。对于外部数据源,理想情况下,模型应该能够预测出目标。
- 预测误差(prediction error)或损失值(loss value):模型预测与目标之间的距离。
- 类别(class):分类问题中供选择的一组标签。例如对猫狗图像进行分类时,“狗”和“猫”就是两个类别。
- 标签(label):分类问题中类别标注的具体例子。比如,如果1234号图像被标注为包含类别“狗”,那么“狗”就是1234号图像的标签。
- 真值(ground-truth)或标注(annotation):数据集的所有目标,通常由人工收集。
- 二分类(binary classification):一种分类任务,每个输入样本都应被划分到两个互斥的类别中。
- 多分类(multiclass classification):一种分类任务,每个输入样本都应被划分到两个以上的类别中,比如手写数字分类。
- 多标签分类(multilabel classification):一种分类任务,每个输入样本都可以分配多个标签。举个例子,如果一幅图像里可能既有猫又有狗,那么应该同时标注“猫”标签和“狗”标签。每幅图像的标签个数通常是可变的。
- 标量回归(scalar regression):目标是连续标量值的任务。预测房价就是一个很好的例子,不同的目标价格形成一个连续的空间。
- 向量回归(vector regression):目标是一组连续值(比如一个连续向量)的任务。如果对多个值(比如图像边界框的坐标)进行回归,那就是向量回归。
- 小批量(mini-batch)或批量(batch):模型同时处理的一小部分样本(样本数通常为8~128)。样本数通常取2的幂,这样便于GPU上的内存分配。训练时,小批量用来为模型权重计算一次梯度下降更新。
4.2 评估机器学习模型
- 在第三章介绍的三个例子中,我们将数据划分为训练集、验证集和测试集。我们没有在训练模型的相同数据上对模型进行评估:仅仅几轮过后,三个模型都开始过拟合。也就是说,随着训练的进行,模型在训练数据上的性能始终在提高,但在前所未见的数据上的性能则不再变化或开始下降。
- 机器学习的目的是得到可以泛化(generalize)的模型,即在前所未见的数据上表现很好的模型,而过拟合则是核心难点。你只能控制可以观察的事情,所以能够可靠地衡量模型的泛化能力很重要。
4.2.1 训练集、验证集和测试集
- 评估模型的重点是将数据划分为三个集合:训练集、验证集和测试集。在训练数据上训练模型,在验证数据上评估模型。一旦找到了最佳参数,就在测试数据上最后测试一次。
- 开发模型时总是需要调节模型配置,比如选择层数或每层大小[这叫作模型的超参数(hyperparameter),以便于模型参数(即权重)区分开]。这个调节过程需要使用模型在验证数据上的性能作为反馈信号。这个调节过程本质上就是一种学习:在某个参数空间中寻找良好的模型配置。因此,如果基于模型在验证集上的性能来调节模型配置,会很快导致模型在验证集上过拟合,即使你并没有在验证集上直接训练模型也会如此。
- 造成这一现象的关键在于信息泄漏(information leak)。每次基于模型在验证集上的性能来调节模型超参数,都会有一些关于验证数据的信息泄漏到模型中。如果对每个参数只调节一次,那么泄漏的信息很少,验证集仍然可以可靠地评估模型。但如果你多次重复这一过程(运行一次实验,在验证集上评估,然后据此修改模型),那么将会有越来越多的关于验证集的信息泄漏到模型中。
- 最后,你得到的模型在验证集上的性能非常好(认为造成的),因为这正是你优化的目的。你关心的是模型在全新数据上的性能,而不是在验证数据上的性能,因此,你需要使用一个完全不同的、前所未见的数据集来评估模型,它就是测试集。你的模型一定不能读取与测试集有关的任何信息,即使间接读取也不行。如果基于测试集性能来调节模型,那么对泛化能力的衡量是不准确的。
- 将数据划分为训练集、验证集、和测试集可能看起来很简单,但如果可用数据很少,还有几种高级方法可以派上用场:简单的留出验证,KKK折验证,以及带有打乱数据的重复KKK折验证。
- 1、简单的留出验证(hold-out validation):留出一定比例的数据作为测试集。在剩余的数据上训练模型,然后在测试集上评估模型。为了防止信息泄漏,不能基于测试集来调节模型,所以还应该保留一个验证集。
num_validation_samples = 10000
np.random.shuffle(data)
validation_data = data[:num_validation_samples]
data = data[num_validation_samples:]
train_data = data[:]
model = get_model()
model.train(train_data)
validation_score = model.evaluate(validation_data)
model = get_model()
model.train(np.concatenate([train_data, validation_data]))
test_score = model.evaluate(test_data)
- 这是最简单的评估方法,但有一个缺点:如果可用的数据很少,那么可能验证集和测试集包含的样本就太少,从而无法在统计学上代表数据。这个问题很容易发现:如果在划分数据前进行不同的随机打乱,最终得到的模型性能差别很大,那么就存在这个问题。
- 2.KKK折验证(KKK-fold validation):将数据划分为大小相同的KKK个分区。对于每个分区ii