统计学习方法
即将拥有人鱼线的羊
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
统计学习——基础概念、过拟合与正则化、分类与回归问题
监督学习: 学习一个模型,使得模型能够对任意给定的输入,对其相应的输出做出一个好的预测。 监督学习从训练数据集合中学习模型,对测试数据进行预测。 输入变量与输出变量均为连续变量的预测问题称为回归问题。 输出变量为有限个离散变量的预测问题称为分类问题。 输入变量与输出变量均为变量序列的预测问题称为标注问题。 联合概率分布: 监督学习中假设输入与输出的随机变量X和Y遵循联合概率分布P(X,Y),其中,...原创 2019-07-26 09:21:37 · 972 阅读 · 0 评论 -
机器学习——支持向量机(SVM)之超平面、间隔与支持向量
描述 SVM是一种二类分类模型,基本模型是定义在特征空间中的间隔最大的线性分类器。 学习策略是间隔最大化。 训练集线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机; 训练集近似线性可分时,通过软间隔最大化,学习一个线性支持向量机; 训练集线性不可分时,通过核技巧与软间隔最大化,学习一个非线性支持向量机; 超平面 附上链接,一篇讲解超平面的干货,讲的很好!!! http://www.sohu...原创 2019-07-26 17:09:47 · 11048 阅读 · 0 评论 -
统计学习方法——拉格朗日对偶性
摘自——李航老师《统计学习方法》附录 在学习SVM时,感觉对偶性有点难以理解,在看了《统计学习方法》和一些博客后,写了这篇笔记。主要是对于含有不等式约束的情况下,可以应用KKT(库恩-塔克)条件的内容。 以下附上一些博客链接: https://blog.youkuaiyun.com/xianlingmao/article/details/7919597 https://www.cnblogs.com/xxrx...原创 2019-07-27 09:15:50 · 534 阅读 · 0 评论 -
支持向量机(SVM)——线性可分支持向量机学习算法
线性可分支持向量机的对偶算法: 应用拉格朗日对偶性,通过求解对偶问题得到原始问题的最优解。 概述 对线性可分训练数据集,假设对偶最优化问题的解为 可以由此得到原始最优化问题的解。 定理 设 是对偶最优化问题的解,则存在下标j,使得αj*>0,并可求得原始最优化问题的解: 由此定理,分离超平面可以写成: 分类决策函数可以写成: 由上式可知,分类决策函数只依赖于输入x和训练样本输入的内...原创 2019-07-28 12:06:51 · 1596 阅读 · 0 评论
分享