
Machine Learning
随遇而安随缘一世
这个作者很懒,什么都没留下…
展开
-
windows下PTAM的编译
前些日子在研究PTAM,下面首先说说PTAM的编译过程,我在XP几WIN7搭配vs2010中均已测试过,都可以运行。首先下载编译PTAM所必须的库文件,下载地址我会给出PTAM(PTAM.zip)http://www.robots.ox.ac.uk/~gk/PTAM/GLEW(glew-1.5.0-win32.zip)http://glew.sourceforge.net/转载 2015-03-13 07:16:33 · 2929 阅读 · 3 评论 -
Adaboost算法介绍
boosting方法有许多不同的变形。其中最流行的一种就是AdaBoost方法,这个名称是“adaptive boostint”的缩写。这个方法允许设计者不断地加入新的“弱分类器”,直到达到某个预定的足够小的误差率。在AdaBoost方法中,每一个训练样本都被赋予一个权重,表明它被某个分类分类器选入训练集的概率。如果某个样本点已经被准确分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,转载 2015-02-12 04:52:44 · 730 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列(五)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参转载 2015-02-25 13:47:11 · 902 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列(一)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09作者:Zouxyversion 1.0 2013-04-08 声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明转载 2015-02-25 13:41:35 · 1284 阅读 · 0 评论 -
Deep Learning论文笔记之(六)Multi-Stage多级架构分析
Deep Learning论文笔记之(六)Multi-Stage多级架构分析zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更转载 2015-02-25 13:36:43 · 582 阅读 · 0 评论 -
Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现
Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另转载 2015-02-25 13:35:19 · 894 阅读 · 0 评论 -
Deep Learning论文笔记之(三)单层非监督学习网络分析
Deep Learning论文笔记之(三)单层非监督学习网络分析zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面转载 2015-02-25 13:33:28 · 695 阅读 · 0 评论 -
LeetCode Maximal Rectangle
Maximal RectangleGiven a 2D binary matrix filled with 0's and 1's, find the largest rectangle containing all ones and return its area.一道超难的题目,思想难,同时实现也难。本题是动态规划法的高级应用,还依据题目特征优化,难转载 2015-02-26 01:22:24 · 609 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列(七)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参转载 2015-02-25 13:48:48 · 778 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列(三)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参转载 2015-02-25 13:43:27 · 5932 阅读 · 0 评论 -
Deep Learning论文笔记之(八)Deep Learning最新综述
Deep Learning论文笔记之(八)Deep Learning最新综述zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,转载 2015-02-25 13:38:34 · 690 阅读 · 0 评论 -
AdaBoost--从原理到实现
一.引入 对于Adaboost,可以说是久闻大名,据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neura转载 2015-02-12 05:25:28 · 537 阅读 · 0 评论 -
adaboost学习(三)
最大错误率问题:将γt=1/2-Et ;Freund and Schapire证明:最大错误率为: 即训练错误率随γt的增大呈指数级的减小.最大总误差: m : 样本个数d : VC维T :训练轮数Pr:对训练集的经验概率如果T值太大,Boosting会导致过适应(overfit)《模式分类》3转载 2015-02-13 09:32:07 · 630 阅读 · 0 评论 -
编译PTAM的碎碎念
之所以说是碎碎念,是因为直到最后编译运行成功都相当得。。。不值一提。。。(但尼玛也浪费掉俺整整一天的时间_(:зゝ∠)_作业用BGM:悲しみのテーマ?La mia tristezzaメドレー(sm9502194)首先关于PTAM,就是Parallel Tracking and Mapping for Small AR Workspaces这篇中的算法,详略,说一下在Win7+V转载 2015-03-13 07:27:57 · 1689 阅读 · 0 评论 -
视觉SLAM漫淡 - 半闲居士
视觉SLAM漫谈1. 前言开始做SLAM(机器人同时定位与建图)研究已经近一年了。从一年级开始对这个方向产生兴趣,到现在为止,也算是对这个领域有了大致的了解。然而越了解,越觉得这个方向难度很大。总体来讲有以下几个原因:入门资料很少。虽然国内也有不少人在做,但这方面现在没有太好的入门教程。《SLAM for dummies》可以算是一篇。中文资料几乎没有。SLAM研究已转载 2015-03-11 09:36:49 · 8970 阅读 · 3 评论 -
LibSVM学习(六)——easy.py和grid.py的使用
我们在“LibSVM学习(一)”中,讲到libSVM有一个tools文件夹,里面包含有四个python文件,是用来对参数优选的。其中,常用到的是easy.py和grid.py两个文件。其实,网上也有相应的说明,但很不系统,下面结合本人的经验,对使用方法做个说明。 这两个文件都要用python(可以在http://www.python.org上下载到,需要安装)和绘图工具gnuplo转载 2015-03-05 12:50:43 · 3306 阅读 · 1 评论 -
LibSVM学习(二)——第一次体验libSvm
1. 把LibSVM包解压到相应的目录(因为我只需要里面windows文件夹中的东东,我们也可以只把windows文件夹拷到相应的目录),比如D:/libsvm。 2. 在电脑“开始”的“运行”中输入cmd,进入DOS环境。定位到d:/ libsvm下,具体命令如下: d: (回车) cd /libsvm/转载 2015-03-05 12:45:37 · 783 阅读 · 0 评论 -
LibSVM学习(五)——分界线的输出
对于学习SVM人来说,要判断SVM效果,以图形的方式输出的分解线是最直观的。LibSVM自带了一个可视化的程序svm-toy,用来输出类之间的分界线。他是先把样本文件载入,然后进行训练,通过对每个像素点的坐标进行判断,看属于哪一类,就附上那类的颜色,从而使类与类之间形成分割线。我们这一节不讨论svm-toy怎么使用,因为这个是“傻瓜”式的,没什么好讨论的。这一节我们主要探讨怎么结合训练结果文件,自转载 2015-03-05 12:49:14 · 1246 阅读 · 0 评论 -
LibSVM学习(四)——逐步深入LibSVM
其实,在之前上海交大模式分析与机器智能实验室对2.6版本的svm.cpp做了部分注解,(在哪里?google一下你就知道)。但是,这个注释只是针对代码而注释,整篇看下来,你会发现除了理解几个参数的含义,还是会对libsvm一头雾水。当然作为理解程序的辅助材料,还是有很大用处的。特别是,对几个结构体的说明,比较清楚。但是要清楚程序具体做了什么,还是要追踪程序中去。 由于svm涉转载 2015-03-05 12:47:52 · 867 阅读 · 0 评论 -
LibSVM学习(三)——LibSVM使用规范
其实,这部分写也是多余,google一下“libsvm使用”,就会N多的资源,但是,为了让你少费点心,在这里就简单的介绍一下,有不清楚的只有动动你的mouse了。需要说明的是,2.89版本以前,都是svmscale、svmtrain和svmpredict,最新的是svm-scale、svm-train和svm-predict,要是用不习惯,只需要把那四个exe文件名去掉中间的短横线,改成svmsc转载 2015-03-05 12:46:42 · 727 阅读 · 0 评论 -
adaboost学习(一)
一、Boosting算法的发展历史 Boosting算法是一种把若干个分类器整合为一个分类器的方法,在boosting算法产生之前,还出现过两种比较重要的将多个分类器整合为一个分类器的方法,即boostrapping方法和bagging方法。我们先简要介绍一下bootstrapping方法和bagging方法。 1)bootstrapping方法的主要过程 主要步骤:转载 2015-02-13 09:35:13 · 840 阅读 · 0 评论 -
adaboost学习(二)
引言众所周知,模式识别的方法可以按照参与识别特征的属性来区分,可以分为两大类:一、使用定量特征(可度量)如物体长度、宽度等,来描述的各种模式,这一类主要是指决策理论,有匹配、统计、神经网络等方法;二、使用定性特征如特征结构、排列顺序等,来描绘的各种模式,这一类主要是指结构判别,主要有串和树的匹配等方法。模式识别的完整的流程顺序是:传感器——分割组织——特征提取——分转载 2015-02-13 09:33:35 · 695 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列(八)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参转载 2015-02-26 00:04:24 · 1075 阅读 · 0 评论 -
[LeetCode(Q49)] Anagrams (回文构词法)
Q:Given an array of strings, return all groups of strings that are anagrams.Note: All inputs will be in lower-case.For example:Input: ["tea","and","ate","eat","den"]Output: ["te转载 2015-02-26 00:07:07 · 1732 阅读 · 0 评论 -
Deep Learning论文笔记之(五)CNN卷积神经网络代码理解
Deep Learning论文笔记之(五)CNN卷积神经网络代码理解zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一转载 2015-02-25 13:36:14 · 2311 阅读 · 0 评论 -
Deep Learning论文笔记之(一)K-means特征学习
Deep Learning论文笔记之(一)K-means特征学习zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面转载 2015-02-25 13:32:16 · 741 阅读 · 0 评论 -
AdaBoost算法原理
AdaBoost算法针对不同的训练集训练同一个基本分类器(弱分类器),然后把这些在不同训练集上得到的分类器集合起来,构成一个更强的最终的分类器(强分类器)。理论证明,只要每个弱分类器分类能力比随机猜测要好,当其个数趋向于无穷个数时,强分类器的错误率将趋向于零。AdaBoost算法中不同的训练集是通过调整每个样本对应的权重实现的。最开始的时候,每个样本对应的权重是相同的,在此样本分布下训练出一个基本转载 2015-02-12 04:54:43 · 491 阅读 · 0 评论 -
统计学习方法——CART, Bagging, Random Forest, Boosting
本文从统计学角度讲解了CART(Classification And Regression Tree), Bagging(bootstrap aggregation), Random Forest Boosting四种分类器的特点与分类方法,参考材料为密歇根大学Ji Zhu的pdf与组会上王博的讲解。CART(Classification And Regressio转载 2013-07-15 02:26:49 · 913 阅读 · 0 评论 -
聚类算法K-Means, K-Medoids, GMM, Spectral clustering,Ncut
聚类算法是ML中一个重要分支,一般采用unsupervised learning进行学习,本文根据常见聚类算法分类讲解K-Means, K-Medoids, GMM, Spectral clustering,Ncut五个算法在聚类中的应用。Clustering Algorithms分类1. Partitioning approach:转载 2013-07-15 02:23:24 · 841 阅读 · 0 评论 -
关于matlab中princomp的使用说明讲解小例子
论坛里有的朋友对于matlab自带pca函数princomp的输出是什么有疑问.http://www.ilovematlab.cn/thread-54493-1-1.html在此做了一个小例子讲解.(例子是matlab自带,您也可以直接看matlab的帮助文件,此贴仅给菜鸟看,高手无需~O(∩_∩)O)====================%% test for prin转载 2012-11-12 05:10:45 · 2980 阅读 · 0 评论 -
matlab实现主成分分析 princomp函数
最近看了些主成分分析,混迹Matlab论坛,翻了n多帖子,对princomp函数有了些了解。在此只讲一些个人理解,并没有用术语,只求通俗。贡献率:每一维数据对于区分整个数据的贡献,贡献率最大的显然是主成分,第二大的是次主成分......[coef,score,latent,t2] = princomp(x);(个人观点):x:为要输入的n维原始数据。带入这个matl转载 2012-11-12 05:42:54 · 1261 阅读 · 0 评论 -
计算机视觉、机器学习相关领域论文和源代码大集合--持续更新……
注:下面有project网站的大部分都有paper和相应的code。Code一般是C/C++或者Matlab代码。最近一次更新:2013-3-17一、特征提取Feature Extraction:· SIFT [1] [Demo program][SIFT Library] [VLFeat]· PCA-SIFT [2]转载 2013-05-08 12:02:40 · 922 阅读 · 0 评论 -
从最大似然到EM算法浅解
机器学习十大算法之一:EM算法。能评得上十大之一,让人听起来觉得挺NB的。什么是NB啊,我们一般说某个人很NB,是因为他能解决一些别人解决不了的问题。神为什么是神,因为神能做很多人做不了的事。那么EM算法能解决什么问题呢?或者说EM算法是因为什么而来到这个世界上,还吸引了那么多世人的目光。 我希望自己能通俗地把它理解或者说明白,但是,EM这个问题感觉真的不太好用通俗的语言去说明转载 2013-05-08 12:04:58 · 673 阅读 · 0 评论 -
Learning中的代数结构的建立
转自:http://blog.sina.com.cn/s/blog_6833a4df0100nazk.htmlLearning是一个融会多种数学于一体的领域。说起与此有关的数学学科,我们可能会迅速联想到线性代数以及建立在向量空间基础上的统计模型——事实上,主流的论文中确实在很大程度上基于它们。R^n (n-维实向量空间) 是我们在paper中见到最多的空间,它确实非常重要和实用,但转载 2013-05-08 12:08:42 · 663 阅读 · 0 评论 -
机器学习知识点学习
在学习机器学习的有关知识时,搜索到JerryLead的cnblog中的Machine Learning专栏,里面对于机器学习的部分算法和知识点讲解地很经典和透彻。所以Mark在这,多多学习!http://www.cnblogs.com/jerrylead/tag/Machine%20Learning/ 偏最小二乘法回归(Partial Least Squares Regressio转载 2013-05-08 12:15:18 · 640 阅读 · 0 评论 -
Gibbs sampling [Gibbs采样]
关于Gibbs sampling, 首先看一下Wiki上的解释:Gibbs sampling or Gibbs sampler is an algorithm to generate a sequence of samples from the joint probability distribution of two or more random variables. The purpose转载 2013-02-22 02:04:52 · 728 阅读 · 0 评论 -
浅说机器学习中“迭代法”
首先来点八股文(来自百度百科):迭代法也称辗转法,是一种不断用变量的旧值递推新值的过程,跟迭代法相对应的是直接法(或者称为一次解法),即一次性解决问题。迭代算法是用计算机解决问题的一种基本方法。它利用计算机运算速度快、适合做重复性操作的特点,让计算机对一组指令(或一定步骤)进行重复执行,在每次执行这组指令(或这些步骤)时,都从变量的原值推出它的一个新值。 利用迭代算法解决问题,转载 2013-05-08 12:03:44 · 680 阅读 · 0 评论 -
生成模型与判别模型
一直在看论文的过程中遇到这个问题,折腾了不少时间,然后是下面的一点理解,不知道正确否。若有错误,还望各位前辈不吝指正,以免小弟一错再错。在此谢过。 一、决策函数Y=f(X)或者条件概率分布P(Y|X) 监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出Y。这个模型的一般形式为决策函数Y=f(X)或者条件概率分布P(Y转载 2013-05-08 12:06:34 · 644 阅读 · 0 评论 -
EM算法原理
在聚类中我们经常用到EM算法(i.e. Estimation - Maximization)进行参数估计, 在该算法中我们通过函数的凹/凸性,在estimation和maximization两步中迭代地进行参数估计,并保证可以算法收敛,达到局部最优解。PS:为了不在11.11这个吉祥的日子发blog,还是打算今天发了,祝单身coder节日快乐,心情愉快~~由于公式实在太转载 2013-07-15 02:24:52 · 720 阅读 · 0 评论 -
计算机顶级会议Rankings && 英文投稿的一点经验
英文投稿的一点经验【转载】From: http://chl033.woku.com/article/2893317.html1. 首先一定要注意杂志的发表范围, 超出范围的千万别投,要不就是浪费时间;另外,每个杂志都有他们的具体格式要求,一定要按照他们的要求把论文写好,免得浪费时间,前些时候,我的一个同事向一个著名的英文杂志投稿,由于格式问题,人家过两个星期就退回来了,而且说了转载 2014-12-24 05:56:09 · 13529 阅读 · 1 评论