
机器学习
文章平均质量分 67
徐不依
这个作者很懒,什么都没留下…
展开
-
机器学习中熟悉MATLAB——区分^/*与.* /^
点乘是矩阵中元素的运算,不加点是矩阵的运算即矩阵的乘法(注意第一个的列等于第二个的行);所以^和*就是矩阵的平方和相乘 .^和.*就是针对矩阵中的每个元素了例如:1 sError=(h-y).^2; %注意有点的时候表示每个元素取平方,如果不加点则表示矩阵的平方(矩阵的平方只有方阵才能有)2 设t = [2 4 4 2] 则原创 2015-11-15 17:42:55 · 1039 阅读 · 0 评论 -
python回归问题数据处理问题--自变量
用各种回归模型进行建模之前最重要的就是处理数据,今天我想对机票价格和时间进行建模,自变量是时间。我用了list放时间数据,同样用list放价格数据。看下时间数据的数据格式:然后进行fitclf=linear_model.Ridge(alpha=1.0) for j in range(T): clf.fit(label0,minprice)发现会报错:大概意原创 2016-10-19 20:42:01 · 3636 阅读 · 0 评论 -
从最大似然到EM算法浅解
文章来源http://blog.youkuaiyun.com/zouxy09/article/details/8537620(EM算法)The EM Algorithm http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html混合高斯模型(Mixtures of Gaussians)和EM算法 http://www.c转载 2016-10-31 15:56:41 · 291 阅读 · 0 评论 -
K-means与EM的关系
K-means与EM的关系,首先回到初始问题,我们目的是将样本分成k个类,其实说白了就是求每个样例x的隐含类别y,然后利用隐含类别将x归类。由于我们事先不知道类别y,那么我们首先可以对每个样例假定一个y吧,但是怎么知道假定的对不对呢?怎么评价假定的好不好呢?我们使用样本的极大似然估计来度量,这里是就是x和y的联合分布P(x,y)了。如果找到的y能够使P(x,y)最大,那么我们找到的y就是样例x的最转载 2016-10-31 20:57:57 · 7387 阅读 · 0 评论 -
线性判别分析
原文地址http://www.cnblogs.com/jerrylead/archive/2011/04/21/2024384.html1. 问题 之前我们讨论的PCA、ICA也好,对样本数据来言,可以是没有类别标签y的。回想我们做回归时,如果特征太多,那么会产生不相关特征引入、过度拟合等问题。我们可以使用PCA来降维,但PCA没有将类别标签考虑进去转载 2016-10-31 21:58:43 · 781 阅读 · 0 评论 -
线性判别分析(2)
原文地址http://www.cnblogs.com/jerrylead/archive/2011/04/21/2024389.html4. 实例 将3维空间上的球体样本点投影到二维上,W1相比W2能够获得更好的分离效果。 PCA与LDA的降维对比: PCA选择样本点投影具转载 2016-10-31 22:00:19 · 448 阅读 · 0 评论 -
结合Scikit-learn介绍几种常用的特征选择方法
链接http://blog.youkuaiyun.com/key_v/article/details/48008725此文系转载,原文地址:http://chaoslog.com/te-zheng-xuan-ze.html特征选择(排序)对于数据科学家、机器学习从业者来说非常重要。好的特征选择能够提升模型的性能,更能帮助我们理解数据的特点、底层结构,这对进一步改善模型、算法都有着重要作用。转载 2016-11-21 18:35:05 · 1047 阅读 · 0 评论 -
线性判别分析
原文地址点击打开链接线性判别分析(Linear Discriminant Analysis)标签(空格分隔): 监督学习@author : duanxxnj@163.com @time : 2016-07-11线性判别分析Linear Discriminant Analysis线性分类器判别式函数discriminant functi转载 2016-11-24 20:33:22 · 4419 阅读 · 1 评论 -
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
http://blog.youkuaiyun.com/xianlingmao/article/details/7919597在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,转载 2016-12-15 20:36:23 · 1001 阅读 · 0 评论 -
算法交易VWAP&TWAP
VWAP的一些算法模型细节参考博客地址http://blog.sina.com.cn/s/blog_ad47bc5b01014elx.html日内交易量预测模型http://blog.sina.com.cn/s/blog_976461170102v43p.html算法交易其实主要是用在基金公司、券商量化比较多。例如我已经选好股,要大量买入,但是单凭交易员的操作海量单而且要完原创 2016-10-26 11:43:52 · 11949 阅读 · 0 评论 -
前向型神经网络之BPNN(附源码)
人工神经网课的大作业~~转自http://blog.youkuaiyun.com/heyongluoyao8/article/details/48213345BPNN人工神经网络 我们知道,人的脑袋具有很强的学习、记忆、联想等功能,虽然人类还没有完全搞明白人类的大脑,但是我们已经知道它的基本单位就是一个个神经元,即一个神经细胞,人的神级细胞个数大约为1011个,海兔大约为2000多个转载 2016-10-23 21:18:16 · 3718 阅读 · 0 评论 -
scikit-learn的线性回归模型 利用pandas处理数据
内容概要如何使用pandas读入数据如何使用seaborn进行数据的可视化scikit-learn的线性回归模型和使用方法线性回归模型的评估测度特征选择的方法作为有监督学习,分类问题是预测类别结果,而回归问题是预测一个连续的结果。1. 使用pandas来读取数据Pandas是一个用于数据探索、数据处理、转载 2016-03-18 16:54:36 · 10582 阅读 · 0 评论 -
sklearn线性回归学习中遇到的问题及解决方法
最近因为做毕业设计开始学习机器学习,这一周主要是对数据进行操作做出可视化的图来分析,另外就是学习论文中提到的一些机器学习算法。 现在仅仅是利用sklearn库中的现有方法实现训练和测试,但是由于手中现有的数据比较复杂,并不适合用线性回归的方法去拟合,所以效果并不理想。1.首先是原始数据格式的问题: 我拿到的数据是csv格式的,用reader读进来以后是用‘\t’对每个字符分原创 2016-03-15 16:04:14 · 4554 阅读 · 0 评论 -
【1】机器学习实战 第二章 k近邻算法
1.tile函数的用法 tile函数的用法 tile函数是numpy中用来重复数组的函数,比如tile(A,n),功能是将数组A重复n次,构成一个新的数组。其中n可以是一个数字或一个数组。2.sum函数sum(a, axis=None, dtype=None, out=None, keepdims=False)axis决定数组相加的形式Examples-原创 2016-08-31 16:36:55 · 438 阅读 · 0 评论 -
【2】机器学习实战 第三章 决策树的构造
1.数据类型标称型:标称型目标变量的结果只在有限目标集中取值,如真与假(标称型目标变量主要用于分类)数值型:数值型目标变量则可以从无限的数值集合中取值,如0.100,42.001等 (数值型目标变量主要用于回归分析)本章的决策树算法是ID3,还有其他的决策树算法例如CART,C4.,他们有各自的优缺点。本章的决策树算法适合用来处理标称型数据,尽管通过量化的方法将数值原创 2016-09-01 17:59:52 · 516 阅读 · 0 评论 -
【3】机器学习实战 第五章 logistic回归
1.getA()方法def plotBestFit(weights): dataMat, labelMat = loadDataSet() dataArr = array(dataMat) #将每个数据点的x,y坐标存为矩阵的形式 n = shape(dataArr)[0]原创 2016-09-02 15:15:09 · 674 阅读 · 0 评论 -
最大似然估计法(MLE)
最大似然估计(Maximum Likelihood Estimation),是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。最大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布的。一、最大似然估计法的基本思想 最大似然估计法的思想很简单:在已经得到试验结果的情况下,我们应该寻找使这个结果出现的可能性最大的那个 作为真 的估计。转载 2016-09-18 21:14:05 · 38196 阅读 · 0 评论 -
PCA的数学原理(非常值得阅读)!!!!
原文链接http://blog.codinglabs.org/articles/pca-tutorial.htmlPCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而转载 2016-10-22 20:07:30 · 7963 阅读 · 2 评论 -
逻辑回归(Logistic Regression)和SVM的联系以及Kernel
soft-SVM其实就是逻辑回归的损失函数改成hinge-loss的版本。||w||其实对应正则化的功能~原文链接http://blog.youkuaiyun.com/jackie_zhu/article/details/52331047逻辑回归和SVM都是比较理想的分类器,但是各有优缺点,逻辑回归不仅可以得到具体的分类类别,还可以得到连续的概率值(因为逻辑回归实质上是回归);SVM则可以利用转载 2017-06-05 17:27:57 · 680 阅读 · 0 评论