- 博客(107)
- 资源 (7)
- 收藏
- 关注
转载 常用排序算法的动画效果图
1 快速排序介绍: 快速排序是由东尼·霍尔所发展的一种排序算法。在平均状况下,排序 n 个项目要Ο(n log n)次比较。在最坏状况下则需要Ο(n2)次比较,但这种状况并不常见。事实上,快速排序通常明显比其他Ο(n log n) 算法更快,因为它的内部循环(inner loop)可以在大部分的架构上很有效率地被实现出来,且在大部分真实世界的数据,可以决定设计的选择,
2015-03-13 17:49:39
827
转载 B树、B-树、B+树、B*树
B树具体讲解之前,有一点,再次强调下:B-树,即为B树。因为B树的原英文名称为B-tree,而国内很多人喜欢把B-tree译作B-树,其实,这是个非常不好的直译,很容易让人产生误解。如人们可能会以为B-树是一种树,而B树又是一种一种树。而事实上是,B-tree就是指的B树。特此说明。我们知道,B 树是为了磁盘或其它存储设备而设计的一种多叉(下面你会看到,相对于二叉,B树每个内结点有
2015-03-13 08:47:58
636
转载 R树空间索引
R树在数据库等领域做出的功绩是非常显著的。它很好的解决了在高维空间搜索等问题。举个R树在现实领域中能够解决的例子吧:查找20英里以内所有的餐厅。如果没有R树你会怎么解决?一般情况下我们会把餐厅的坐标(x,y)分为两个字段存放在数据库中,一个字段记录经度,另一个字段记录纬度。这样的话我们就需要遍历所有的餐厅获取其位置信息,然后计算是否满足要求。如果一个地区有100家餐厅的话,我们就要进行100次位置
2015-03-13 08:40:29
764
转载 Matlab安装使用libsvm
防止别人重复犯一些错误,把网络上看到得东西总结一下,希望对某些人有些帮助。20120703 一.下载libsvmhttp://www.csie.ntu.edu.tw/~cjlin/libsvm/在libsvm的网站上下载 libsvm-3.12.zip文件,解压后放在任意目录下,最好放在MATLAB工具箱中,比如 C:\Program Files\MAT
2014-11-20 15:59:42
678
转载 深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却
2014-11-20 15:27:56
773
转载 图形学:名词解释
3D三维(three dimension)。客观世界中静止的物体都是三维的,在计算机图形学中常在一定的坐标系中用(x,y,z)坐标系列表示物体。3D modeling3D建模。用三维坐标来描述物体的形状。在各种计算机图形应用领域中有不同的三维建模方法,用不同的算法来描述这些领域中的物体和对象。3D transformation3D变换。在三维空间中把物体的三维坐标从一个
2014-11-07 10:49:21
12469
转载 小谈Elsevier中的LaTex投稿
三修的那篇文章修改的地方不多,为了让评审人感觉我大刀阔斧的改了很多,也为了尝试用LaTex投稿,所以本次我用LaTex编辑了我的revised manuscript,有些小经验吧,给大家分享。Elsevier所有的杂志投稿的模板都是一个,你把那个LaTex的模板下来就好了,注释很明白,还有一个类似于user guide(elsdo
2014-09-21 17:25:38
15666
3
转载 各种距离
在做分类时常常需要估算不同样本之间的相似性度量(SimilarityMeasurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。 本文的目的就是对常用的相似性度量作一个总结。本文目录:1.欧氏距离2.曼哈顿距离3. 切比雪夫距离4. 闵可夫斯基距离
2014-09-17 18:33:11
769
转载 VS2010+QT5.1+opencv2.4.5图像界面第一个程序
VS2010+QT5.1+opencv2.4.5图像界面第一个程序2013年10月08日 ⁄ 综合 ⁄ 共 2600字 ⁄ 字号 小 中 大 ⁄ 评论关闭 QT最近新出了5.1.0版本,最近要用QT编写界面,所以重新下载了新的QT,替换了以前的Qt4.8.4. VS2010+opencv2.4.5+Qt
2014-08-10 00:47:32
12987
转载 智力风暴(经典智力题)
智力题1(海盗分金币)——海盗分金币5个海盗抢得100枚金币后,讨论如何进行公正分配。他们商定的分配原则是:(1)抽签确定各人的分配顺序号码(1,2,3,4,5);(2)由抽到1号签的海盗提出分配方案,然后5人进行表决,如果方案得到超过半数的人同意,就按照他的方案进行分配,否则就将1号扔进大海喂鲨鱼;(3)如果1号被扔进大海,则由2号提出分配方案,然后由剩余的4人进行表决,当且
2014-07-20 19:59:35
1006
转载 Stanford机器学习---第10讲. 数据降维
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。内容大多来自Standford公开课machine learning中
2014-07-20 19:44:21
752
转载 Stanford机器学习---第9讲. 聚类
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。内容大多来自Standford公开课machine learning中
2014-07-20 19:43:19
606
转载 Stanford机器学习---第8讲. 支持向量机SVM
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:42:22
1059
转载 Stanford机器学习---第6讲. 怎样选择机器学习方法、系统
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:38:54
691
转载 Stanford机器学习---第7讲. 机器学习系统设计
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:37:24
636
转载 Stanford机器学习---第5讲. 神经网络的学习 Neural Networks learning
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:37:01
797
转载 Stanford机器学习---第4讲. 神经网络的表示 Neural Networks representation
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:29:30
837
转载 Stanford机器学习---第2讲. 多变量线性回归 Linear Regression with multiple variable
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:25:46
675
转载 Stanford机器学习---第3讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning
2014-07-20 19:24:51
1826
1
转载 Stanford机器学习---第1讲. Linear Regression with one variable
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning中A
2014-07-20 19:23:22
790
转载 机器学习——深度学习(Deep Learning)
Deep Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得。Key Words:有监督学习与无监督学习,分类、回归,密度估计、聚类,深度学习,Sparse DBN,1. 有监督学习和无监督学习给定一组数据(inpu
2014-07-18 16:16:56
611
转载 无监督特征学习——Unsupervised feature learning and deep learning
无监督学习近年来很热,先后应用于computer vision, audio classification和 NLP等问题,通过机器进行无监督学习feature得到的结果,其accuracy大多明显优于其他方法进行training。本文将主要针对Andrew的unsupervised learning,结合他的视频:unsupervised feature learning by Andr
2014-07-18 15:59:28
555
转载 深入浅出K-Means算法
在数据挖掘中,K-Means算法是一种cluster analysis的算法,其主要是来计算数据聚集的算法,主要通过不断地取离种子点最近均值的算法。问题K-Means算法主要解决的问题如下图所示。我们可以看到,在图的左边有一些点,我们用肉眼可以看出来有四个点群,但是我们怎么通过计算机程序找出这几个点群来呢?于是就出现了我们的K-Means算法(Wikipedia链接)
2014-07-17 20:12:26
468
转载 独立成分分析(Independent Component Analysis)
1. 问题: 1、上节提到的PCA是一种数据降维的方法,但是只对符合高斯分布的样本点比较有效,那么对于其他分布的样本,有没有主元分解的方法呢? 2、经典的鸡尾酒宴会问题(cocktail party problem)。假设在party中有n个人,他们可以同时说话,我们也在房间中一些角落里共放置了n个声音接收器(Microphone)用来记录声音。宴会过后,我们从n个
2014-07-17 20:07:56
670
转载 线性回归,logistic回归,一般回归
转自 JerryLead 2011年2月27日1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类。该方法处理的数据可以是多维的。 讲义最初介绍了一个基本问题,然后引出了线
2014-07-17 20:03:34
569
转载 线性判别分析(Linear Discriminant Analysis)
1. 问题 之前我们讨论的PCA、ICA也好,对样本数据来言,可以是没有类别标签y的。回想我们做回归时,如果特征太多,那么会产生不相关特征引入、过度拟合等问题。我们可以使用PCA来降维,但PCA没有将类别标签考虑进去,属于无监督的。 比如回到上次提出的文档中含有“learn”和“study”的问题,使用PCA后,也许可以将这两个特征合并为一个,降了维度。但假设我们的
2014-07-17 20:03:34
886
转载 B树、B-树、B+树、B*树
B树 即二叉搜索树: 1.所有非叶子结点至多拥有两个儿子(Left和Right); 2.所有结点存储一个关键字; 3.非叶子结点的左指针指向小于其关键字的子树,右指针指向大于其关键字的子树; 如: B树的搜索,从根结点开始,如果查询的关键字与结点的关
2014-07-17 19:35:15
421
转载 数据结构
数据结构是计算机存储、组织数据的方式,它是指相互之间存在一种或多种特定关系的数据元素的集合,也指数据的逻辑结构和数据的物理结构(也叫存储结构)。数据的逻辑结构就是数据表面上的关系。物理大小指数组的容量大小,而逻辑大小则指数组中实际已存储的数据元素的个数。数据的物理结构只有两个:一个是顺序存储,一个是链式存储。精心选择数据结构可以带来更高的运行或存储效率。数据结构往往同高效的检索算法和索引技术相关。
2014-07-17 19:33:08
480
转载 主成分分析(PCA)
问题:假设在IR中我们建立的文档-词项矩阵中,有两个词项为“learn”和“study”,在传统的向量空间模型中,认为两者独立。然而从语义的角度来讲,两者是相似的,而且两者出现频率也类似,是不是可以合成为一个特征呢? 《模型选择和规则化》谈到的特征选择的问题,就是要剔除的特征主要是和类标签无关的特征。比如“学生的名字”就和他的“成绩”无关,使用的是互信息的方法。
2014-07-17 19:27:34
1071
转载 关于方差、协方差、协方差矩阵的概念及意义
书到用时方恨少,不仅文科是这样,理科更是这样。想想大学时候,我们学习数学的目的也就是为了考试,从来没有想过它们能解决什么实际问题。但是现在想想,我们真是错了。数学其实就是来自生活。话题一转,如果是搞科研不懂得一些数学知识,你还怎么混?现在由于自己在Metric Space空间下,需要去研究自己的一些科研问题,有时候还会用打到PCA,k-means···等一些算法。其实这些算法大多有
2014-07-17 15:38:29
1111
转载 线性回归的来历
为什么叫回归分析(Regression toward mediocrity)-趋中回归有人可能会好奇,为什么叫“回归”这个名称,它有什么具体含义?实际上,回归这种现象最早由英国生物统计学家高尔顿在研究父母亲和子女的遗传特性时所发现的一种有趣的现象:身高这种遗传特性表现出“高个子父母,其子代身高也高于平均身高;但不见得比其父母更高,到一定程度后会往平均身高方向发生‘回归’”。 这种效
2014-07-10 10:38:18
6199
转载 降维(二)----Laplacian Eigenmaps
降维系列:降维(一)----说说主成分分析(PCA)的源头降维(二)----Laplacian Eigenmaps--------------------- 前一篇文章中介绍了主成分分析。PCA的降维原则是最小化投影损失,或者是最大化保留投影后数据的方差。在谈到其缺点的时候,我们说这一目标并不一定有助于数据的分类,换句话说,原本在高维
2014-06-14 16:04:48
891
转载 降维(一)----说说主成分分析(PCA)的源头
降维系列:降维(一)----说说主成分分析(PCA)的源头降维(二)----Laplacian Eigenmaps--------------------- 主成分分析(PCA) 在很多教程中做了介绍,但是为何通过协方差矩阵的特征值分解能够得到数据的主成分?协方差矩阵和特征值为何如此神奇,我却一直没弄清。今天终于把整个过程整理出来,方便自己学习,也和大家
2014-06-14 16:03:44
8247
转载 图˙谱˙马尔可夫过程˙聚类结构----by林达华
这又是林达华的一篇好文,将四个概念在某个方面解释的很清楚,特别是特征值和特征向量的意义,让人豁然开朗。 原文已经找不到了,好像是因为林达华原来的live博客已经失效,能找到的只有网上转载的文章(本来还想把他的博客看个遍)。林本人的数学功底之强,有时候会让我们这些搞CV、ML的人趁还在学校,重头把一些数学学一遍。不过想想学校所开设的课程实在是屎(老师和学生们都是混),也就想想罢了。
2014-06-14 16:02:29
1175
转载 图像检索中为什么仍用BOW和LSH
去年年底的时候在一篇博客中,用ANN的框架解释了BOW模型[1],并与LSH[2]等哈希方法做了比较,当时得出了结论,BOW就是一种经过学习的Hash函数。去年再早些时候,又简单介绍过LLC[3]等稀疏的表示模型,当时的相关论文几乎一致地得出结论,这些稀疏表示的方法在图像识别方面的性能一致地好于BOW的效果。后来我就逐渐产生两个疑问:1)BOW在检索时好于LSH,那么为什么不在任何时候都用
2014-06-14 15:49:13
3358
转载 CVPR14与图像视频检索相关的论文
找了一下CVPR 2014关于Image and Video Retrieval的文章,列在下面:Oral:Triangulation embedding and democratic aggregation for image search ,Jegou Jegou依然在填BOW模型的坑,在encoding和aggregation两方面做改进。
2014-06-14 15:47:44
1715
转载 计算机视觉、机器学习相关领域论文和源代码大集合
计算机视觉、机器学习相关领域论文和源代码大集合--持续更新…… 注:下面有project网站的大部分都有paper和相应的code。Code一般是C/C++或者Matlab代码。最近一次更新:2013-3-17一、特征提取Feature Extraction:· SIFT [1] [Demo program][SIFT Lib
2014-06-06 16:33:10
744
转载 从最大似然到EM算法浅解
从最大似然到EM算法浅解 机器学习十大算法之一:EM算法。能评得上十大之一,让人听起来觉得挺NB的。什么是NB啊,我们一般说某个人很NB,是因为他能解决一些别人解决不了的问题。神为什么是神,因为神能做很多人做不了的事。那么EM算法能解决什么问题呢?或者说EM算法是因为什么而来到这个世界上,还吸引了那么多世人的目光。 我希望自己能通俗地把
2014-06-06 16:30:17
815
转载 Activity Recognition行为识别
暑假听了computer vision的一个Summer School,里面Jason J. Corso讲了他们运用Low-Mid-High层次结构进行Video Understanding 和 Activity Recognition的方法,受益颇深,在这里把他的方法总结一下:--------------------------------------
2012-11-10 10:28:13
1393
计算机视觉中的数学方法
2011-12-17
SIFT_Matlab代码
2011-12-17
SIFT源代码DavidLowe
2011-12-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人