
机器学习
文章平均质量分 78
飞天狐213
为理想而奋斗!
展开
-
加州理工学院公开课:雷蒙保罗MAPA泛化理论(第六课)
课程简介:本次课程主题为"泛化理论",介绍了机械学习相关课程,重点介绍与之相关的公式推导及其应用。是这一整套课程中最具理论的课程,如果读者理解了该部分内容,那么对于后面课程的理解将会有很大的帮助。原创 2014-09-10 16:45:42 · 2127 阅读 · 1 评论 -
加州理工学院公开课:机器学习与数据挖掘_Validation(第十三课)
主要介绍如何通过验证来评估模型的性能及如何通过验证选取模型的问题。介绍的方法有:模型选择、交叉验证。原创 2014-11-29 00:07:57 · 1834 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_SVM(第十四课)
课程简介这节课主要讲述了支持向量机的原理及其在线性可分数据集上的应用。最后讲到支持向量机在处理高维空间时显示出的优势。。在讲述支持向量机的原理的时候用到拉格朗日方程, KKT 及二次规划进行求解。理论部分比较深。原创 2014-12-07 19:52:05 · 1809 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_Kernal Method(第十五课)
继续上一课最后的问题,当数据是非线性可分的时候需要把数据转化到 Z 空间(线性可分)才可以利用 SVM ,因此需要知道 Z 空间是什么。这节课解决了不用知道具体的 Z 空间就可以利用 SVM 进行分类。最后,该课程介绍了如何因对过拟化的问题。思想跟十一课介绍的相同,就是设置一个限制条件。原创 2014-12-30 23:52:05 · 1600 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_Radial Basis Function(第十六课)
课程简介 :主要介绍了 RBF 模型及其与最近邻算法、神经网络、Kernel Method 的比较。最后介绍了 RBF 模型的 regularization 问题。原创 2015-01-21 15:59:52 · 1444 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_Three Learning Principles(第十七课)
这一节课主要讲述机器学习中应该注意的事项,包括:Occam's Razor、Sampling Bias、Data Snooping.原创 2015-01-24 16:59:51 · 1847 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_Epilogue(第十八课-终结篇)
这是该课程的最后一课,作者首先总结了有关机器学习的理论、方法、模型、范式等。最后介绍了贝叶斯理论和Aggregation(聚合)方法在机器学习中的应用。原创 2015-01-25 16:13:35 · 1771 阅读 · 0 评论 -
Belief propagation
转:http://baoshuo.blog.163.com/blog/static/2195510512013580133867/Belief propagation是machine learning的泰斗J. Pearl的最重要的贡献。对于统计学来说,它最重要的意义就是在于提出了一种很有效的求解条件边缘概率(conditional marginal probability)的方法。说的有转载 2015-03-05 11:11:17 · 2865 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_VC 维(第七课)
课程简介:本讲通过回顾上一讲内容,引出了VC维的定义,它是由统计学习理论定义的有关函数集学习性能的一个重要指标。并通过例子证明函数集的VC维就是它能打散的最大样本数目。课程最后介绍VC维的应用,指出它反映了函数集的学习能力,VC维越大则学习机器越复杂原创 2014-09-11 23:06:03 · 2429 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_神经网络(第十课)
本节课主要介绍人工神经网络.通过介绍评定模型,随机梯度下降法,生物启发和感知器系统,讲师用视图和数学解析式详细地讲解了神经网络的运行过程以及原理.原创 2014-10-09 17:57:33 · 1862 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_线性模型 II(第九课)
课程简介:主要内容包括对线性分类及线性回归分析的简单回顾,以及对逻辑回归分析,误差测定与算法三方面的详细讲解,同时对非线性变换的泛化方法进行了剖析.原创 2014-10-07 22:12:23 · 1612 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_学习问题(第一课)
机器学习的原创 2014-08-27 18:02:07 · 1619 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_线性模型(第三课)
这一课时主要是讲述了线性模型的一些处理。包括:1、输入数据的表示(Input Representation)2、线性分类(Linear Classification)3、线性回归(Linear Regression) 4、非线性模型转换(Nonlinear Transformation)作者认为,如果要测试某个模型的可用性,做好就是用真实数据。为了讲解线原创 2014-08-29 22:16:28 · 2264 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_学习的可能性(第二课)
公式:Hoeffdings:p[|v-u|>e] <= 2^( -2n)原创 2014-08-28 22:16:27 · 1610 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_误差和噪声(第四课)
这一课的主题是:误差分析与噪声处理。内容如下:1、Nonlinear Transformation(Continue)(非线性转换(续))2、Error Measure (误差度量)(重点)3、Noisy Targets(噪声指标)(重点)4、Preamble to the Theory(理论热身)原创 2014-08-30 20:13:58 · 3803 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_训练与测试(第五课)
课程简介:本视频为机器学习系列课程第5章。主要定量研究训练与测试之间的关系,并引入学习模型中的一个重要概念--断点。课程深入浅出,从正射线、正区间和凸集三个具体例子入手,寻找突破点,从而得出训练集与测试集的关系。原创 2014-09-01 18:10:03 · 2481 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_偏差与方差权衡(第八课)
在回顾了VC分析之后,本节课重点介绍了另一个理解泛化的理论:偏差与方差,并通过学习曲线的运用比较了VC分析和偏偏差方差权衡的不同用途.原创 2014-09-24 22:40:54 · 1757 阅读 · 0 评论 -
加州理工学院公开课:机器学习与数据挖掘_过拟化(第十一课)
本节课主要介绍了关于机器学习中的过拟化问题。作者指出,区别一个专业级玩家和业余爱好者的方法之一就是他们如何处理过拟化问题。通过该课程,我们可以知道样本数据的拟合并不是越高越好,因为噪声的存在将使得过拟化问题的出现。最后简介了处理过拟合的两种方法。原创 2014-11-07 23:27:50 · 2039 阅读 · 7 评论 -
加州理工学院公开课:机器学习与数据挖掘_Regularization(第十二课)
接上一节课,这一节课的主题是如何利用 Regularization 避免 Overfitting。通过给假设集设定一些限制条件从而避免 Overfitting,但是如果限制条件设置的不恰当就会造成 Underfitting。最后讲述了选择 Regularization 的一些启发式方法。原创 2014-11-09 11:00:04 · 2103 阅读 · 0 评论 -
conditional random fields
原文地址conditional random fields This page contains material on, or relating to, conditional random fields. I shall continue to update this page as research on conditional random fie转载 2015-03-18 20:07:21 · 2431 阅读 · 0 评论