
统计学习方法
即将拥有人鱼线的羊
这个作者很懒,什么都没留下…
展开
-
统计学习——基础概念、过拟合与正则化、分类与回归问题
监督学习: 学习一个模型,使得模型能够对任意给定的输入,对其相应的输出做出一个好的预测。监督学习从训练数据集合中学习模型,对测试数据进行预测。输入变量与输出变量均为连续变量的预测问题称为回归问题。输出变量为有限个离散变量的预测问题称为分类问题。输入变量与输出变量均为变量序列的预测问题称为标注问题。联合概率分布: 监督学习中假设输入与输出的随机变量X和Y遵循联合概率分布P(X,Y),其中,...原创 2019-07-26 09:21:37 · 912 阅读 · 0 评论 -
机器学习——支持向量机(SVM)之超平面、间隔与支持向量
描述SVM是一种二类分类模型,基本模型是定义在特征空间中的间隔最大的线性分类器。学习策略是间隔最大化。训练集线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机;训练集近似线性可分时,通过软间隔最大化,学习一个线性支持向量机;训练集线性不可分时,通过核技巧与软间隔最大化,学习一个非线性支持向量机;超平面附上链接,一篇讲解超平面的干货,讲的很好!!!http://www.sohu...原创 2019-07-26 17:09:47 · 10905 阅读 · 0 评论 -
统计学习方法——拉格朗日对偶性
摘自——李航老师《统计学习方法》附录在学习SVM时,感觉对偶性有点难以理解,在看了《统计学习方法》和一些博客后,写了这篇笔记。主要是对于含有不等式约束的情况下,可以应用KKT(库恩-塔克)条件的内容。以下附上一些博客链接:https://blog.youkuaiyun.com/xianlingmao/article/details/7919597https://www.cnblogs.com/xxrx...原创 2019-07-27 09:15:50 · 445 阅读 · 0 评论 -
支持向量机(SVM)——线性可分支持向量机学习算法
线性可分支持向量机的对偶算法: 应用拉格朗日对偶性,通过求解对偶问题得到原始问题的最优解。概述对线性可分训练数据集,假设对偶最优化问题的解为可以由此得到原始最优化问题的解。定理设是对偶最优化问题的解,则存在下标j,使得αj*>0,并可求得原始最优化问题的解:由此定理,分离超平面可以写成:分类决策函数可以写成:由上式可知,分类决策函数只依赖于输入x和训练样本输入的内...原创 2019-07-28 12:06:51 · 1534 阅读 · 0 评论