第一章
1.机器学习涉及学科(八大学科):人工智能、概率和统计、计算复杂性理论、控制论、信息论、心理学和神经生物学、哲学。
2.学习定义
对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么我们称这个计算机程序在从经验E中学习。
3.设计一个学习系统(五个步骤):
①选择训练经验 ②选择目标函数 ③选择目标函数的表示 ④选择函数逼近算法 ⑤最终设计
4.最终设计(四个模块)
①执行系统:用学会的目标函数来解决给定的任务。
②鉴定器:以对弈的路线或历史记录作为输入,输出目标函数的一系列训练样例。
③泛化器:以训练样例为输入,产生一个输出假设,作为它对目标函数的估计。
④实验生成器:以当前的假设作为输入,输出一个新的问题,供执行系统去探索。
第二章
1.概念学习:是指从有关某个布尔函数的输入输出训练样例中推断出该布尔函数。
*****题型设计:计算实例、语法不同、语义不同的假设个数(P17页)
FIND-S寻找极大特殊假设
2.“一致”的定义:一个假设h与训练样例集合D一致,当且仅当对D中每一个样例<x,c(x)>都有h(x)=c(x),即Consistent(h,D)(<x,c(x)>D)h(x)=c(x)
“一致”与“满足”的关系:
一个样例x在好h(x)=1时,称为满足假设h,不论x是目标概念的正例还是反例。
一致与目标函数有关,即是否h(x)=c(x)
变型空间(version space):与训练样例一致的所有假设组成的集合;表示了目标概念的所有合理的变型
关于H和D的变型空间,记为VSH,D,是H中与训练样例D一致的所有假设构成的子集VSH,D={hH|Consistent(h,D)}
*****题型设计:求一般边界和特殊边界,候选消除算法(习题2-4,2-5)
3.需要什么样的训练样例
一般来说,概念学习的最优查询策略,是产生实例以满足当前变型空间中大约半数的假设。这样,变型空间的大小可以在遇到每个新样例时减半,正确的目标概念就可在只用log2|VS|次实验后得到。
4.X的幂集:一般来说在集合X上定义的相异子集数目(X幂集的大小)为2|X|,其中|X|是X的元素数目。
5.归纳学习需要的预先假定,称为归纳偏置。可以用归纳偏执来描述不同学习方法的特征。
第三章
1.决策树学习是应用最广的归纳推理算法之一,是一种逼近离散值函数的方法
2.决策树适用问题的特征:
①实例由“属性-值”对表示
②目标函数具有离散的输出值
③可能需要析取的描述
④训练数据可以包含错误
⑤训练数据可以包含缺少属性值的实例.
*****题型设计:画决策树(习题3-1)
3.用熵度量样例的均一性
熵刻画了任意样例集的纯度,给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个布尔型分类的熵为
4.用信息增益度量期望的熵降低
一个属性的信息增益是由于使用这个属性分割样例而导致的期望熵降低
*****题型设计:求熵和信息增益(习题3-2)
5.过度拟合
定义:给定一个假设空间H,一个假设hH,如果存在其他的假设h'H,使得在训练样例上h的错误率比h'小,但在整个实例分布上h'的错误率比h小,那么就说假设h过度拟合训练数据。
6.避免过度拟合的两种途径:①及早停止树增长②后修剪法
第五章
1.当给定的数据集有限时,要学习一个概念并估计其将来的精度,存在两个很关键的困难:
①估计的偏差②估计的方差
2.样本错误率和真实错误率
定义:假设h关于目标函数f和数据样本S的样本错误率(标记为errors(h))
定义:假设h关于目标函数f和分布D的真实错误率(标记为errorD(h))
3.定义zN为计算N%置信区间的常数(取值见表5-1),计算errorD(h)的N%置信区间的一般表达式(公式5.1)为:
4.定义:针对任意参数p的估计量Y的估计偏差是:E[Y]-p
如果估计偏差为0,称Y为p的无偏估计量。
5.通常描述某估计的不确定性的方法是使用置信区间,真实的值以一定的概率落入该区间中,这样的估计称为置信区间估计。
定义:某个参数p的N%置信区间是一个以N%的概率包含p的区间
*****题型设计:求置信区间、单侧和双侧边界(习题5-3)
第六章
1.贝叶斯学习方法的特性
①观察到的每个训练样例可以增量地降低或升高某假设的估计概率。而其他算法会在某个假设与任一样例不一致时完全去掉该假设
②先验知识可以与观察数据一起决定假设的最终概率,先验知识的形式是:1)每个候选假设的先验概率;2)每个可能假设在可观察数据上的概率分布
③贝叶斯方法可允许假设做出不确定性的预测
④新的实例分类可由多个假设一起做出预测,用它们的概率来加权
⑤即使在贝叶斯方法计算复杂度较高时,它们仍可作为一个最优的决策标准衡量其他方法
2.最佳假设:一种方法是把它定义为在给定数据D以及H中不同假设的先验概率的有关知识下的最可能假设。
用P(h)表示在没有训练数据前假设h拥有的初始概率。P(h)被称为h的先验概率。
类似地,P(D)表示训练数据D的先验概率,P(D|h)表示假设h成立时D的概率。
机器学习中,我们关心的是P(h|D),即给定D时h的成立的概率,称为h的后验概率。
3.贝叶斯公式提供了从先验概率P(h)、P(D)和P(D|h)计算后验概率P(h|D)的方法:
4.学习器在候选假设集合H中寻找给定数据D时可能性最大的假设h,h被称为极大后验假设(Maximum A Posteriori, MAP)
5.P(D|h)常被称为给定h时数据D的似然度,而使P(D|h)最大的假设被称为极大似然假设(Maximum Likelihood Posteriori, MLP)
贝叶斯推理的结果很大程度上依赖于先验概率,另外不是完全接受或拒绝假设,只是在观察到较多的数据后增大或减小了假设的可能性。
6.一致学习器:如果某个学习器输出的假设在训练样例上为0错误率,则称为一致学习器。
如果H上有均匀的先验概率,且训练数据是确定性和无噪声的,任意一致学习器将输出一个MAP假设。
7.通过简单的贝叶斯分析,可以表明在特定前提下,任一学习算法如果使输出的假设预测和训练数据之间的误差平方和最小化,它将输出一极大似然假设。
8.最小描述长度准则(Minimum Description Length, MDL)
MDL准则提供了一种方法在假设的复杂性和假设产生错误的数量之间进行折中,它有可能选择一个较短的产生少量错误的假设,而不是完美地分类训练数据的较长的假设。
上面讨论自然给出了一种处理数据过度拟合的方法。
*****题型设计:贝叶斯最优分类器(P125页)
9.朴素贝叶斯分类器基于一个简单的假定:在给定目标值时属性值之间相互条件独立。
只要条件独立性得到满足,朴素贝叶斯分类vNB等于MAP分类,否则是近似。
10.EM算法:期望最大化
第八章
1.k-近邻算法
*****题型设计:计算几个点之间的距离
2.来自统计模式识别领域的术语
回归:逼近一个实数值的目标函数
残差:逼近目标函数时的误差
核函数:一个距离函数,用来决定每个训练样例的权值,就是使wi=K(d(xi,xq))的函数K
3.局部加权回归的名称解释
局部:目标函数的逼近仅仅根据查询点附近的数据
加权:每个训练样例的贡献由它与查询点间的距离加权得到
回归:表示逼近实数值函数的问题
4.k-近邻算法和局部加权回归具有三个共同的关键特性:
①消极学习方法
②通过分析相似的实例来分类新的查询实例,而忽略与查询极其不同的实例
③实例表示为n维欧氏空间中的实数点
基于案例的推理(Case-Based Reasoning, CBR)满足前2个原则,但不满足第3个
5.消极方法和积极方法的差异:
①计算时间的差异
消极算法在训练时需要较少的计算,但在预测新查询的目标值时需要更多的计算时间
②对新查询的分类的差异(归纳偏置的差异)
消极方法在决定如何从训练数据D中泛化时考虑查询实例xq,积极方法在见到xq之前,就完成了泛化
核心观点:消极学习可以通过很多局部逼近的组合表示目标函数,积极学习必须在训练时提交单个的全局逼近
第九章
1.GA:遗传算法
2.最常见的算子是交叉和变异
*****题型设计:单点交叉、两点交叉和均匀交叉的
3.选择假设的概率计算方法
①适应度比例选择(或称轮盘赌选择):选择某假设的概率是通过这个假设的适应度与当前群体中其他成员的适应度的比值得到的
②锦标赛选择:先从当前群体中随机选取两个假设,再按照事先定义的概率p选择适应度较高的假设,按照概率1-p选择适应度较低的假设
③排序选择:当前群体中的假设按适应度排序,某假设的概率与它在排序列表中的位置成比例,而不是与适应度成比例
4.遗传算法应用中的一个难题:拥挤问题
拥挤:群体中某个体适应度大大高于其他个体,因此它迅速繁殖,以至于此个体和与它相似的个体占据了群体的绝大部分。拥挤降低了群体的多样性,从而减慢了进化的进程。
降低拥挤的策略:
①使用锦标赛选择或排序选择,而不用适应度比例轮盘赌选择。
②适应度共享,根据群体中与某个体相似的个体数量,减小该个体的适应度,对可重组生成后代的个体种类进行限制,比如受到生物进化的启示。
③通过只允许最相似的个体重组,可以在群体中促成相似的个体聚类,形成亚种,按空间分布个体,只允许相邻的个体重组。
第十三章
1.增强学习问题与普通函数逼近问题有几个重要的不同:
延迟回报:施教者只在机器人执行其序列动作时提供一个序列立即回报值,因此面临一个时间信用分配的问题:确定最终回报的生成应归功于序列中哪一个动作
探索:学习器面临一个权衡过程,是选择探索未知的状态和动作,还是选择利用它已经学习过、会产生高回报的状态和动作
部分可观察状态:机器人的传感器只能感知环境的部分状态
终生学习:使得有可能使用先前获得的经验或知识在学习新任务时减小样本复杂度
2.MDP:马尔可夫决策过程
3.Q学习:Q函数
*****题型设计:求累计回报,状态V*,以及最优策略(习题13-2)