机器学习
Schnappi_z
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Bagging_AdaBoost提升方法
提升算法的基本思路 在概率近似正确的学习框架中 一个对象,如果存在一个多项式学习算法能够学习,且准确率很高,那么它是强可学习的。 如果是准确率比随即猜测略好,那么它是弱可学习的。 一个对象是强可学习的充要条件是该对象是弱可学习的。 弱可学习算法通常比强可学习的算法容易获得。所以提升方法就是从弱学习算法出发,得道许多弱分类器,组合弱分类器,形成一个强分类器。(三个臭皮匠顶个诸葛亮。) Baggi...原创 2020-02-26 13:47:11 · 495 阅读 · 1 评论 -
决策树
决策树模型 对实例进行分类的树形结构,内部节点表示特征或属性,叶节点表示分类。决策树的路径对应分类的规则,路径的划分要互斥且完备,即给定特征之后只有一条确定的分类路径,对应唯一的分类结果。 现实情况中满足条件的分类可能也不会完全把类别分开,比如认为开玛莎拉蒂进出高档会馆的人可以被分类为富人,但也有可能出现司机的情况。但这不影响分类结果,我们会将分类结果强行划分到条件概率大的一类。开玛莎拉蒂进出高档...原创 2020-02-24 20:02:57 · 216 阅读 · 0 评论 -
线性模型_梯度下降与直接求解
线性模型 用一条线拟合实际数据:h(θ)=θ0x0+θ1x1+...+θnxnh(\theta)=\theta_{0}x_{0}+\theta_{1}x_{1}+...+\theta_{n}x_{n}h(θ)=θ0x0+θ1x1+...+θnxn 这里,将h(θ)h(\theta)h(θ) 称为假设函数,是对实际值的一种估计,是估计就会有偏差,我们的目标是尽量的找到估计值与实际值之间的...原创 2020-02-23 19:18:00 · 356 阅读 · 0 评论 -
Logistic 回归算法原理及python代码实现(二分类模型)
使用场景 通常面临的二分类问题可能是:一封邮件是否为垃圾邮件;那么可以抽象成数字标签: y=0 表示负类->垃圾邮件 y=1 表示正类->正常邮件 模型的提出 这要求数学模型的结果取值要在[0,1]范围内,通常线性回归h(θ)h(\theta)h(θ)的取值范围是实数域,很容易取到h(θ)>1h(\theta)>1h(θ)>1或h(θ)<0h(\theta)...原创 2020-02-21 22:19:27 · 4066 阅读 · 2 评论
分享