
周志华 ML笔记
文章平均质量分 87
hhsh49
这个作者很懒,什么都没留下…
展开
-
周志华《Machine Learning》学习笔记(11)--聚类
转自:http://blog.youkuaiyun.com/u011826404/article/details/70991604上篇主要介绍了一种机器学习的通用框架–集成学习方法,首先从准确性和差异性两个重要概念引出集成学习“好而不同”的四字真言,接着介绍了现阶段主流的三种集成学习方法:AdaBoost、Bagging及Random Forest,AdaBoost采用最小化指数损失函数迭代式更新转载 2017-11-06 22:25:00 · 587 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(9)--EM算法
转自:http://blog.youkuaiyun.com/u011826404/article/details/68924781上篇主要介绍了贝叶斯分类器,从贝叶斯公式到贝叶斯决策论,再到通过极大似然法估计类条件概率,贝叶斯分类器的训练就是参数估计的过程。朴素贝叶斯则是“属性条件独立性假设”下的特例,它避免了假设属性联合分布过于经验性和训练集不足引起参数估计较大偏差两个大问题,最后介绍的拉普拉斯修正转载 2017-11-05 20:23:53 · 333 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(8)--贝叶斯分类器
转自:上篇主要介绍和讨论了支持向量机。从最初的分类函数,通过最大化分类间隔,max(1/||w||),min(1/2||w||^2),凸二次规划,朗格朗日函数,对偶问题,一直到最后的SMO算法求解,都为寻找一个最优解。接着引入核函数将低维空间映射到高维特征空间,解决了非线性可分的情形。最后介绍了软间隔支持向量机,解决了outlier挤歪超平面的问题。本篇将讨论一个经典的统计学习算法–贝叶斯转载 2017-11-05 10:30:20 · 519 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(7)--支持向量机
转自:http://blog.youkuaiyun.com/u011826404/article/details/54647611上篇主要介绍了神经网络。首先从生物学神经元出发,引出了它的数学抽象模型–MP神经元以及由两层神经元组成的感知机模型,并基于梯度下降的方法描述了感知机模型的权值调整规则。由于简单的感知机不能处理线性不可分的情形,因此接着引入了含隐层的前馈型神经网络,BP神经网络则是其中最为成转载 2017-11-04 15:43:00 · 1024 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(6)--神经网络
转自:http://blog.youkuaiyun.com/u011826404/article/details/53767428上篇主要讨论了决策树算法。首先从决策树的基本概念出发,引出决策树基于树形结构进行决策,进一步介绍了构造决策树的递归流程以及其递归终止条件,在递归的过程中,划分属性的选择起到了关键作用,因此紧接着讨论了三种评估属性划分效果的经典算法,介绍了剪枝策略来解决原生决策树容易产生的过转载 2017-11-03 20:04:52 · 1817 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(5)--决策树
转自:http://blog.youkuaiyun.com/u011826404/article/details/53606485上篇主要介绍和讨论了线性模型。首先从最简单的最小二乘法开始,讨论输入属性有一个和多个的情形,接着通过广义线性模型延伸开来,将预测连续值的回归问题转化为分类问题,从而引入了对数几率回归,最后线性判别分析LDA将样本点进行投影,多分类问题实质上通过划分的方法转化为多个二分类转载 2017-11-03 16:18:18 · 666 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(17)--强化学习
转自:http://blog.youkuaiyun.com/u011826404/article/details/75576856上篇主要介绍了概率图模型,首先从生成式模型与判别式模型的定义出发,引出了概率图模型的基本概念,即利用图结构来表达变量之间的依赖关系;接着分别介绍了隐马尔可夫模型、马尔可夫随机场、条件随机场、精确推断方法以及LDA话题模型:HMM主要围绕着评估/解码/学习这三个实际问题展转载 2017-11-13 15:53:31 · 2060 阅读 · 1 评论 -
周志华《Machine Learning》学习笔记(16)--概率图模型
转自:http://blog.youkuaiyun.com/u011826404/article/details/75090562上篇主要介绍了半监督学习,首先从如何利用未标记样本所蕴含的分布信息出发,引入了半监督学习的基本概念,即训练数据同时包含有标记样本和未标记样本的学习方法;接着分别介绍了几种常见的半监督学习方法:生成式方法基于对数据分布的假设,利用未标记样本隐含的分布信息,使得对模型参数的转载 2017-11-13 15:47:32 · 1017 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(15)--半监督学习
转自:http://blog.youkuaiyun.com/u011826404/article/details/74358913上篇主要介绍了机器学习的理论基础,首先从独立同分布引入泛化误差与经验误差,接着介绍了PAC可学习的基本概念,即以较大的概率学习出与目标概念近似的假设(泛化误差满足预设上限),对于有限假设空间:(1)可分情形时,假设空间都是PAC可学习的,即当样本满足一定的数量之转载 2017-11-13 15:35:28 · 612 阅读 · 0 评论 -
《Machine Learning》学习笔记(4)–线性模型
转自:http://blog.youkuaiyun.com/u011826404/article/details/53455753笔记的前一部分主要是对机器学习预备知识的概括,包括机器学习的定义/术语、学习器性能的评估/度量以及比较,本篇之后将主要对具体的学习算法进行理解总结,本篇则主要是第3章的内容–线性模型。3、线性模型谈及线性模型,其实我们很早就已经与它打过交道,还记得高中数学必转载 2017-11-03 15:03:45 · 462 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(3)--假设检验、方差与偏差
转自:http://blog.youkuaiyun.com/u011826404/article/details/53455753在上两篇中,我们介绍了多种常见的评估方法和性能度量标准,这样我们就可以根据数据集以及模型任务的特征,选择出最合适的评估和性能度量方法来计算出学习器的“测试误差“。但由于“测试误差”受到很多因素的影响,例如:算法随机性(例如常见的K-Means)或测试集本身的选择,使得同一模转载 2017-11-02 20:44:11 · 2763 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(2)--性能度量
转自:http://blog.youkuaiyun.com/u011826404/article/details/53242081本篇主要是对第二章剩余知识的理解,包括:性能度量、比较检验和偏差与方差。在上一篇中,我们解决了评估学习器泛化性能的方法,即用测试集的“测试误差”作为“泛化误差”的近似,当我们划分好训练/测试集后,那如何计算“测试误差”呢?这就是性能度量,例如:均方差,错误率等,即“测试误差转载 2017-11-02 20:34:55 · 385 阅读 · 0 评论 -
周志华《Machine Learning》 学习笔记系列(1)
转自:http://blog.youkuaiyun.com/u011826404/article/details/53229609机器学习是目前信息技术中最激动人心的方向之一,其应用已经深入到生活的各个层面且与普通人的日常生活密切相关。本文为清华大学最新出版的《机器学习》教材的Learning Notes,书作者是南京大学周志华教授,多个大陆首位彰显其学术奢华。本篇主要介绍了该教材前两个章节的知识点以转载 2017-11-02 20:25:58 · 437 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(14)--计算学习理论
转自:http://blog.youkuaiyun.com/u011826404/article/details/73351162上篇主要介绍了常用的特征选择方法及稀疏学习。首先从相关/无关特征出发引出了特征选择的基本概念,接着分别介绍了子集搜索与评价、过滤式、包裹式以及嵌入式四种类型的特征选择方法。子集搜索与评价使用的是一种优中生优的贪婪算法,即每次从候选特征子集中选出最优子集;过滤式方法计算一转载 2017-11-11 10:15:08 · 900 阅读 · 1 评论 -
周志华《Machine Learning》学习笔记(13)--特征选择与稀疏学习
转自:http://blog.youkuaiyun.com/u011826404/article/details/72860607上篇主要介绍了经典的降维方法与度量学习,首先从“维数灾难”导致的样本稀疏以及距离难计算两大难题出发,引出了降维的概念,即通过某种数学变换将原始高维空间转变到一个低维的子空间,接着分别介绍了kNN、MDS、PCA、KPCA以及两种经典的流形学习方法,k近邻算法的核心在于k转载 2017-11-10 20:07:41 · 1098 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(12)--降维与度量学习
转自:http://blog.youkuaiyun.com/u011826404/article/details/72123031上篇主要介绍了几种常用的聚类算法,首先从距离度量与性能评估出发,列举了常见的距离计算公式与聚类评价指标,接着分别讨论了K-Means、LVQ、高斯混合聚类、密度聚类以及层次聚类算法。K-Means与LVQ都试图以类簇中心作为原型指导聚类,其中K-Means通过EM算法不断迭转载 2017-11-10 11:16:42 · 1799 阅读 · 0 评论 -
周志华《Machine Learning》学习笔记(10)--集成学习
转自:http://blog.youkuaiyun.com/u011826404/article/details/70172971上篇主要介绍了鼎鼎大名的EM算法,从算法思想到数学公式推导(边际似然引入隐变量,Jensen不等式简化求导),EM算法实际上可以理解为一种坐标下降法,首先固定一个变量,接着求另外变量的最优解,通过其优美的“两步走”策略能较好地估计隐变量的值。本篇将继续讨论下一类经典算法转载 2017-11-06 10:09:11 · 864 阅读 · 0 评论