
机器学习
文章平均质量分 77
Meyayron
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
神经网络
神经网络的正向&&反向传播 通过正向传播后得到的误差来进行反向传播,反向传播时通过求导的方式更新权值,获得误差更小的权重参数。 具体讲解见: http://www.cnblogs.com/charlotte77/p/5629865.html 神经网络的代价函数 相比逻辑回归的代价函数,这里增加了一个关于K的累加,K代表的是分类的数量。下标K的意思就是计算原创 2018-02-06 10:23:32 · 346 阅读 · 0 评论 -
逻辑回归
参考文献 1 文墨 https://www.cnblogs.com/sparkwen/p/3441197.html 2 Andrew NG. Logistic Regression Classification 逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就由于这个逻辑函数,使得逻辑回归模原创 2018-02-06 10:23:56 · 279 阅读 · 0 评论 -
特征缩放
参考:http://blog.youkuaiyun.com/xlinsist/article/details/51212348 引言 在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能提高算法的收敛速度。下面我会主要介绍一些特征缩放的方法。 什么是特征原创 2018-02-06 10:24:07 · 307 阅读 · 0 评论 -
线性回归、预测回归、一般回归
平方误差代价函数 我们的目标就是让J()尽可能的小 梯度下降 := 是赋值的意思 α" role="presentation" style="position: relative;">αα\alpha 是指learning rate(学习速度) 对theta求导(斜率),theta在左半边的时候,斜率为负,所以theta会向右更新,同理在又边的原创 2018-02-06 10:24:17 · 2858 阅读 · 0 评论 -
AdaBoost算法
参考Blog: adaBoost算法 参考书籍: 《机器学习实战》 - 参考书籍: Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。Adaboost算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的原创 2018-02-06 10:24:27 · 321 阅读 · 0 评论 -
k-近邻算法(KNN)算法概述(分类器)
k-近邻算法(KNN)算法概述(分类器) KNN通过测量不同特征值之间的距离进行分类。大致思路:一个样本在k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别。那么该样本也属于这个类别。 参考书籍:《python经典学习实例》、《机器学习实战》 源码地址:https://github.com/Metatronxl/MachineLearning/tree/master/k...原创 2018-06-14 14:32:42 · 743 阅读 · 0 评论