机器学习
文章平均质量分 50
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
黑冰vip
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
2.回归算法 _下
注意:现在绝大数语言可以求得导函数,但是无法算出导函数为0后的x值原创 2022-03-24 20:31:25 · 210 阅读 · 0 评论 -
4.KNN算法
KNN算法原创 2022-09-12 16:39:47 · 207 阅读 · 0 评论 -
4、集成学习:随机森林、Adaboost、GBDT
01_集成学习(Ensemble Learning)思想讲解注意:通过若干个学习器组合新的学习器 ,如果有错误样本(鲁棒性不高的模型)也能弱化 (因为正确性居多) 2.数据集过大,不会一次性放入数据集,可以进行拆分 数据集过小,通过有放回操作产生不同的子集 3.有时候模型边界比较复杂,如下图;这时候需要训练多个线性模型,然后将这几个线性模型做一个融合, 最后得到一个非线性的能力 注意:集成学习和深度学习有一定的共通性,深度学习可以当做是多个线性模型(逻辑回归)的...原创 2022-03-18 23:21:08 · 1372 阅读 · 0 评论 -
11.XGBoost
集成算法: -1. Bagging 随机森林 多个基模型的构建是基于不同数据来构建 -2. Boosting 通过迭代的形式基于之前构建好的模型,对样本数据做一定的修正,然后影响之后的模型构建, 模型构建的方向或者目的:让预测更准,让误差更小。 Adaboost 通过修正样本的权重 GBDT 通过修正样本的预测值label标签值 -3. Stacking...原创 2022-03-09 19:04:53 · 1795 阅读 · 0 评论 -
12.聚类算法
和分类算法一样,都是用于样本的类别划分的 区别: 分类算法是有监督的算法,也就是算法找到是特征属性x和类别属性y之间的关系,基于这样的关系,对样本数据x做类别的划分预测 聚类算法是无监督的算法,也就是说训练数据中只有特征属性x,没有类别属性y,模型是通过找x的特征信息,将数据划分为不同的类别,基于这样的划分,对于样本数据x认为和那个类别最接近来产生预测。 ##注意:如果特征工程做的不是很好,会导致一个样本属于两个以上的分类(因为特征上面有很高的相 似性) 备注:**分类算法.原创 2022-03-13 01:04:13 · 1680 阅读 · 0 评论 -
线性回归--上
线性回归: 线性:函数(模型)参数的最高次项等于1(这也是数学中线性函数和非线性函数的概念) 回归:最终要求计算出θ值,并选择最优的θ值构成算法公式线性回归: 实质上就是找x和y之间的线性关系,由于x(特征变量)和y(预测值)都是已知的, 那么找的就是的θ最优值独立:不同样本之间的预测值/误差值是相互独立的,没有任何关系同分布:一个样本在不同的特征上的误差是同分布的均值为零: 线性回归的目的是让函数均匀的分布在样本的两侧, 两边的误差值...原创 2021-07-31 20:20:33 · 213 阅读 · 0 评论 -
机器学习-决策树
推导:day07 02:03:06-02:07:06原创 2021-06-27 21:18:19 · 272 阅读 · 1 评论 -
第2课 方差代价函数 知错
Rosemblatt感知器原创 2021-06-06 10:16:06 · 622 阅读 · 0 评论
分享