
machine learning
文章平均质量分 88
Exziro
这个作者很懒,什么都没留下…
展开
-
Machine Learning多元线性回归算法及优化
多元线性方程 在上一周的学习中,我们给出了一个hθ(x)=θ0+θ1*x .这样的简单的线性方程,但是,我们一般得到的训练组都是有很多的数据,那么此时这个方程就变成了这样 我们把其中的θ和X数据提取出来,用一个多维矩阵表示 θ转置乘以X 就等于这个等式 这就给我们提供了一种表示假设的更加便利的形式,即用参数向量θ以及,特征向量X的内积。这就是改写以后的表示方法。这样的表示习惯就让我们可原创 2017-04-10 22:08:44 · 4664 阅读 · 0 评论 -
K-近邻算法(KNN)
前言 这篇博文其实可以算是一个对上一篇博客的补充,前面我们说到的是皮尔逊算法和欧氏算法,这里的K近邻算法和这两种算法其实也非常接近。 K-近邻算法属于监督学习的一个分支,主要是用来对相关问题进行分类。简单的说,K-近邻算法采用测量不同特征值之间的距离来进行分类。 工作原理:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签(label),即我们知道样本集中的每一数据与所原创 2017-10-22 17:09:44 · 704 阅读 · 0 评论 -
皮尔逊相关度欧式距离以及曼哈顿距离
前言 有些时候我们需要获得一些事物的相似度评价值,例如我们可以获取到大量的数据用以分析人们在品味方面的相似度,为此,我们可以将没个人与所有其他人进行对比,并计算他们的相似度评价。有很多种方法能够帮助我们来实现这个目的,而我们今天要提到的则是欧几里得距离和皮耶尔逊相关度,同时作为引申,简单地涉及一些曼哈顿距离的算法。欧几里德距离 计算相似度评价值的一个非常简单的方法是使用欧几里德距离的评价方法,因原创 2017-10-12 20:51:04 · 2495 阅读 · 1 评论 -
numpy 维度、轴和transpose的理解
前言 最近在看pandas的创始人写的一本数据分析,在其中使用numpy建立多维数组的时候提到了很多有关数组的维度和轴的一些相关的知识,而刚开始阅读的时候由于对这部分有些理解不到位,导致后面理解数组转换的时候出现了很多坑爹问题。所以特此写几个简单的实例分析一下。小伙伴们也可以一起瞅瞅,看看能不能加深一下印象。 维度 在数学上我们说维度是什么呢?–在一定的前提下描述一个数学对象所需的参数个数原创 2017-10-02 21:19:10 · 4413 阅读 · 5 评论 -
梯度下降中的归一化、标准化问题
简述 在我上一篇完结的Tianic测试中,我曾提到了一个在使用sklenlearn包中出现的一个问题,这成为了我们这里预留的一个悬念,也就是为了防止不拟合时而使用了scaling,但是当时我在scaling的时候报错了,这一下就十分尴尬了,因此我在网上查找了一些相关的资料,最终我找出了问题的所在。当然没读过上一篇的童鞋也不需要担心,这一篇文章的内容我将结合查找到的资料,简要的介绍一下梯度下降过程中原创 2017-09-24 19:36:26 · 4886 阅读 · 0 评论 -
Kaggle实例-Titanic分析(二)-补全 拟合
前言 本来是打算用一篇博客把完整的一次数据处理全部记录下来,但是无奈断(lan)电(ai)。同时也是为了写的更详(tuo)细(ta)一些,防止以后看不懂,所以我决定把三个大部分分开来写,同时,后面的内容我也打算这样处理希望各位大佬海涵。———-我是逗逼的分割线———-数据补充 上回书说到,船帆了,人挂了,大家各安天命了。(摔)。我们简单的对我们当前得到的数据进行了简单的分析,以此来找出我们最后训原创 2017-09-15 20:54:12 · 1056 阅读 · 0 评论 -
Kaggle实例-Titanic分析(一)
看了很多发掘类和ML的文章,但是一直苦于没有想法,没有进行过想关的尝试以及练习,无意中在csdn中看到了hanxiaoyang大佬的一篇初学者测试的文章,对照着dalao的教程,我开始进行我的首次尝试,该篇文章同时也是记录同时也是分析我在对其内容进行分析的过程。同时,其中dalao没有注意到的一些小问题 我也会相关地进行说明(因为真是从零开始掉了不少坑ORZ)。 首先我们看一下当前的这个被练烂原创 2017-09-14 22:42:07 · 878 阅读 · 0 评论 -
Machine Learning逻辑回归(Logistic Regression)
分类问题 在分类问题中,我们会去尝试预测结果是否属于某一个类(比如正确或错误)。分类问题是一个判断类的问题,例如判断一封电子邮件是否为垃圾邮件,判断一个肿瘤是良性还是恶性的。 我们将因变量(dependant variable)可能属于的两个类分别称为负向类(negative class)和正向类(positive class),则因变量y={0,1},其中0表示负向类,1表示正向类。原创 2017-04-16 22:59:13 · 806 阅读 · 0 评论 -
Machine learning 监督与无监督
前言:因为对于相关领域的兴趣,有幸观看到Ng大牛的视频,个人以为总结才是最好的理解方式,看过的童鞋也可以参考一下,同时可以指出我一些理解的不足,如有问题,请及时指出,感激不尽。machine learning machine learning的学习我们首先来看两句非常经典的描述语句。 “the field of study that gives computers the ability to l原创 2017-04-04 17:02:51 · 486 阅读 · 0 评论 -
梯度下降法总结.推到.以及实现
一.前言二.简述三.简单线性回归中的梯度下降实现四.多元线性回归下的梯度下降算法五.随机梯度下降算法六.scikit-learn中的随机梯度下降算法使用七.总结一.前言很久不总结,对于很多知识都出现了遗忘,很久以前曾经写过一篇有关线性回归算法博文,所以打算接着上一次的来经行总结。说到线性回归就不得不提及与它有着密切关系的一种优化算法也就是梯度下降法。梯度下降法...原创 2018-08-04 20:51:55 · 1347 阅读 · 0 评论