- 博客(193)
- 资源 (9)
- 收藏
- 关注

原创 信息检索的评价指标(Precision, Recall, F-score, MAP)
之前写过一篇blog叫做机器学习实战笔记之非均衡分类问题:http://blog.youkuaiyun.com/lu597203933/article/details/38666699其中对Precision和Recall及ROC都有所讲解,其中区别在于Precision,Recall, F-score, MAP主要用于信息检索,而ROC曲线及其度量指标AUC主要用于分类和识别,ROC的详细介绍见上面的b
2014-12-08 12:39:36
40083
1

原创 PCA降维简介
PCA全称为principal componentanalysis,即主成成分分析,用于降维。对数据进行降维有很多原因。比如: 1:使得数据更易显示,更易懂 2:降低很多算法的计算开销 3:去除噪声一:基本数学概念1:方差均值太简单了,不说了。方差是各个数据分别与其和的平均数之差的平方的和的平均数,用字母D表示。计算公式如下:
2014-11-27 13:09:39
47470

转载 写博客的好处
表达自我每个人都有表达自我的欲望,看看网络上那么多自拍的照片、视频就明白了,文字是一种最朴素的表达方式,但也是很多人钟爱的方式。通过表达自我,记录成长的足迹,发泄自己郁闷的情感,平衡心态,对自己的成长是很有好的作用的。结交朋友博客上无论的表达的什么思想观点,必然会得到另一些志同道合的朋友赞同,朋友的圈子就是这样建立起来的,这样的朋友往往会非常忠实,会经常回来看看你的博客,提醒你该更
2013-03-28 11:08:29
2284
1
转载 object detection资料汇总
ump to...LeaderboardPapersR-CNNMultiBoxSPP-NetDeepID-NetNoCFast R-CNNDeepBoxMR-CNNFaster R-CNNYOLOAttentionNetDenseBoxSSDInside-Outside Net (ION)G-CNNHyperNetMultiPathNetCRAFTOHEMR-FCNMS-CNN
2017-04-18 20:18:22
5434
转载 triplet loss的原理及caffe代码
1:triplet loss的原理及梯度推到 http://blog.youkuaiyun.com/tangwei2014/article/details/467880252:triplet loss如何增加到caffe中:http://blog.youkuaiyun.com/tangwei2014/article/details/46812153
2016-12-31 21:02:29
4823
原创 简记ReNet
ResNet论文给出了Resnet有3中类型,ResNet50[res3 res4 res6 res3],ResNet101[res3 res4 res23 res3]和ResNet152[res3 res4 res36 res3]层卷积。 ResNet50[res3 res4 res6 res3]中第一个3表示res2a+res2b+res2c, 而res2a又包含三层卷积,res2a = res
2016-12-17 21:27:28
8948
1
转载 【深度学习】caffe 中的一些参数介绍
转自 http://blog.youkuaiyun.com/cyh_24目录(?)[+]caffe 参数介绍solver.prototxtnet: "models/bvlc_alexnet/train_val.prototxt" test_iter: 1000 # test_interval: 1000 # base_lr: 0
2016-08-22 20:39:35
3895
原创 Java写的自动抢购红米note手机(2016/4/6 米粉节)
受同学所托,帮其抢红米手机,老是抢不到,于是就想着写个程序,多线程实时监听,虽然最终还是没抢到,但还是将程序分享给大家。(其实在排除学校网速的影响下,我真怀疑雷总到底有没有发布小米手机让大家抢,所以还是建议大家尽量不要抢小米手机,太坑!) 程序使用java写的,采用Maven构建的一个项目,采用selenium包。这里先给出平台的搭建,后续给出相应的程序代码。1:使用Maven模
2016-04-17 16:42:09
8490
原创 图像质量的客观评估指标PSNR与SSIM
图像质量的客观评估指标PSNR与SSIMPSNRSSIM代码参考文献1:PSNRPSNR是最为常用的图像质量评估指标: 其中K为图像对应二进制位数,一般为8。MSE为均方误差,计算公式为: 2:SSIMSSIM[^footnote]主要用来衡量图像结构完整性,是另一种比较常用的客观评估指标。实际应用中,一般用滑动窗口对图像进行分块,这里的滑动窗口一般为高斯窗口,并用高斯加权计算
2016-03-30 21:48:02
29768
1
转载 【机器学习系列】机器学习界大牛林达华推荐的书籍
Recommended BooksHere is a list of books which I have read and feel it is worth recommending to friends who are interested in computer science.Machine LearningPattern Recognition and M
2015-07-08 21:02:45
4558
转载 【Linux编程】C/C++获取目录下文件或目录及linux中fork()函数详解(原创!!实例讲解)
在Unix/Linux系统中,要获取一个指定目录下所有的文件或文件夹,一般用dirent.h(POSIX标准定义的目录操作头文件)。一、数据类型在头文件中定义了两种主要的数据类型。DIR:代表一个目录流的结构。12345678910111213struct __dirstream{ void *__fd
2015-07-05 20:29:29
7058
原创 DeepLearning to digit recognizer in kaggle
DeepLearning to digit recongnizer in kaggle 最近在看deeplearning,于是就找了kaggle上字符识别进行练习。这里我主要用两种工具箱进行求解,并比对两者的结果。两种工具箱分别是DeepLearningToolbox和caffe。DeeplearningToolbox源码解析见:http://blog.youkuaiyun.com/lu5
2015-07-03 15:35:15
5208
原创 Ubuntu14.10+cuda7.0+caffe配置
Ubuntu14.10+cuda7.0+caffe配置一:linux安装Linux安装不说了,我这里安装的是ubuntu14.10 二:nVidia驱动和CUDA Toolkit的安装和调试(*.run方法)1: Verify You Have a CUDA-Capable GPU执行下面的操作,然后验证硬件支持GPU CUDA,只要型号存在于https://develop
2015-07-03 15:27:33
22900
原创 DeepLearnToolBox中CNN源码解析
DeepLearnToolbox是一个简单理解CNN过程的工具箱,可以在github下载。为了理解卷积神经网络的过程,我特此对CNN部分源码进行了注释。公式的计算可以由上一篇blog推导得出。 注意:代码中没有的subsampling进行设置参数,将subsampling层的参数w就设置为了0.25,而偏置参数b设置为0。卷积层计算过程为上一层所有feature map的卷积的
2015-06-20 22:36:34
42912
7
原创 CNN公式推导
CNN公式推导1 前言 在看此blog之前,请确保已经看懂我的前两篇blog【深度学习笔记1(卷积神经网络)】和【BP算法与公式推导】。并且已经看过文献[1]的论文【Notes on Convolutional Neural Networks】。因为本文就是讲解文献[1]论文前部分公式的推导过程这里有一个假设,或许公式是错误的,如有好的理解请留言>。2 CNN公式推导
2015-06-20 22:30:01
43994
5
原创 BP算法与公式推导
BP(backpropgationalgorithm ):后向传导算法,顾名思义就是从神经网络的输出(顶层)到输入(底层)进行求解。那么求解什么呢,求解的就是神经网络中的参数的导数,即参数梯度方向,从而就可以使用梯度下降等求解无约束问题(cost function的最值)的方法求得最终的参数。神经网络前向传播的过程比较简单,这里不做讲解(如果不了解,可以参看文献)。1.问题分析1.1 Co
2015-06-20 21:58:01
43142
1
原创 深度学习笔记1(卷积神经网络)
深度学习笔记1(卷积神经网络) 在看完了UFLDL教程之后,决定趁热打铁,继续深度学习的学习,主要想讲点卷积神经网络,卷积神经网络是深度学习的模型之一,还有其它如AutoEncoding、Deep Belief Network、Restricted Boltzmann Machine和sparse coding等。 在UFLDL教程中提到了针对大型图像的处理
2015-06-20 21:49:26
17354
原创 UFLDL教程笔记及练习答案六(稀疏编码与稀疏编码自编码表达)
稀疏编码(SparseCoding)sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征(稀疏的)。选择使用具有稀疏性的分量来表示我们的输入数据是有原因的,因为绝大多数的感官数据,比如自然图像,可以被表示成少量基本元素的叠加,在图像中这些基本元素可以是面或者线。稀疏编码算法的目的就是找到一组基向量使得我们能将输入向量x表示成这些基向量
2015-06-14 10:34:35
6300
原创 UFLDL教程笔记及练习答案五(自编码线性解码器与处理大型图像**卷积与池化)
自动编码线性解码器自动编码线性解码器主要是考虑到稀疏自动编码器最后一层输出如果用sigmoid函数,由于稀疏自动编码器学习是的输出等于输入,simoid函数的值域在[0,1]之间,这就要求输入也必须在[0,1]之间,这是对输入特征的隐藏限制,为了解除这一限制,我们可以使最后一层用线性函数及a = z习题答案:SparseAutoEncoderLinerCost.mfunctio
2015-06-11 22:00:08
4016
原创 UFLDL教程笔记及练习答案四(建立分类用深度学习---栈式自编码神经网络)
此次主要由自我学习过度到深度学习,简单记录如下:(1)深度学习比浅层网络学习对特征具有更优异的表达能力和紧密简洁的表达了比浅层网络大的多的函数集合。(2)将传统的浅层神经网络进行扩展会存在数据获取、局部最值和梯度弥散的缺点。(3)栈式自编码神经网络是由多层稀疏自编码器构成的神经网络(最后一层采用的softmax回归或者logistic回归分类),采用逐层贪婪的训练方法得到初始的参数,这
2015-06-11 13:33:48
6728
2
原创 UFLDL教程笔记及练习答案三(Softmax回归与自我学习***)
1:softmax回归当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归。教程中已经给了cost及gradient的求法。需要注意的是一般用最优化方法求解参数theta的时候,采用的是贝叶斯学派的思想,需要加上参数theta。习题答案:(1) 数据加载——————代码已给(2) %% STEP
2015-06-09 21:45:22
7310
原创 UFLDL教程笔记及练习答案二(预处理:主成分分析和白化)
首先将本节主要内容记录下来,然后给出课后习题的答案。笔记:1:首先我想推导用SVD求解PCA的合理性。 PCA原理:假设样本数据X∈Rm×n,其中m是样本数量,n是样本的维数。PCA降维的目的就是为了使将数据样本由原来的n维降低到k维(k<n)。方法是找数据随之变化的主轴,在Andrew Ng的网易公开课上我们知道主方向就是X的协方差所对应的最大特征值所对应的特征向量的
2015-06-09 10:51:11
6405
原创 UFLDL教程练习答案一(稀疏自编码器和矢量化编程实现)
最近想研究下深度学习,一开始就看UFLDL(unsuprisedfeature learning and deep learning)教程了,特将课后习题答案放在这里,作为一个笔记。笔记:1:自编码算法是一个无监督学习算法,它通过学习hw,b(x) = x,因此最后的outputlayer单元数与inputlayer单元数量相等,而中间的hiddenlayer可以很大,这是加个稀疏惩罚
2015-06-07 21:14:38
6073
2
原创 leetcode ---双指针+滑动窗口
一:Minimum Size Subarray Sum题目:Given an array of n positive integers and a positive integer s, find the minimal length of a subarray of which the sum ≥ s. If there isn't one, return 0 instead.
2015-06-06 16:26:19
4585
原创 面试笔试
最近需要找工作了,特将遇到的面试笔试题总结在这里,希望对大家也有帮助1:不能被继承只能被实例化3次分析:不能被继承,只需要将该类的构造函设置为私有的就可以了,那么如何得到它呢,只能通过静态函数得到了(不能创建对象,自然不能用对象调用函数)。。当然如果用指针,必须得有析构,因此析构函数也为私有的。。。(为了防止赋值和复制,复制构造函数及赋值操作符都要为私有)。此外代码中也可以用引用类型。
2015-06-05 22:20:55
1954
原创 leetcode ----Trie/stack专题
一:Implement Trie (Prefix Tree)题目:Implement a trie with insert, search, and startsWith methods.Note:You may assume that all inputs are consist of lowercase letters a-z.分析:此题是典型的trie树,
2015-06-05 21:51:13
1782
原创 Lire源码解析一
Lucene image retrieval是以图搜图的java开源框架,这几天没什么事,就读了点源码,并写了点注释,特在这分享给大家。这里主要给出的是BOVWBuilder.java、Kmeans.java及Cluster.java。就是用词频对特征进行编码,用到是BOF(bag of feature)模型,原理就是提取N张图片的特征(比如sift),放在一起就可以得到矩阵,然后对矩阵进
2015-06-02 19:27:51
2920
转载 百度图像搜索探秘
昨天,百度上线了新的相似图(similarimage search)搜索,试了风景、人物、文字等不同类型query的效果,感觉效果非常赞。尤其对于人物搜索,返回的结果在颜色、以及姿态方面具有非常大的相似性。特别是在输入某个pose的美女图片时,会搜到一系列相近pose的美女图片,真的是宅男之福啊。本着娱乐精神,贴一个搜索结果供大家yy。我们知道这个产品底层的技术是余凯老师领导的
2015-05-27 09:28:28
2800
原创 概念主题模型简记
概念主题模型(PTM, probabilitytopical model)在自然语言处理(NLP,natural language processing)中有着重要的应用。主要包括以下几个模型:LSA(latentsemantic analysis)、 PLSA(probability latent semantic analysis)、LDA(latentdirichlet allocati
2015-05-23 13:13:17
7863
转载 文本语言模型的参数估计-最大似然估计、MAP及贝叶斯估计
转自:http://blog.youkuaiyun.com/yangliuy/article/details/8296481以PLSA和LDA为代表的文本语言模型是当今统计自然语言处理研究的热点问题。这类语言模型一般都是对文本的生成过程提出自己的概率图模型,然后利用观察到的语料数据对模型参数做估计。有了语言模型和相应的模型参数,我们可以有很多重要的应用,比如文本特征降维、文本主题分析等等。本文主要介绍
2015-05-23 12:58:46
2409
原创 奇异值分解及应用(PCA&LSA)
这里我省去了很多的数学知识,建议数学比较薄弱的读者可以先看看信息检索导论>第18章。主要的数学知识包括方阵的特征值、特征向量;方阵的对角化;一般矩阵的奇异值分解及低秩逼近矩阵。这里主要讲解奇异值分解的两个应用PCA(降维)和LSA(潜在语义结构分析)。PCA:之前有详细讲过PCA,http://blog.youkuaiyun.com/lu597203933/article/details/415445
2015-05-21 23:10:48
4277
转载 相似图片搜索原理四(内容特征法)
说明:这里为阮一峰的一篇blog:http://www.ruanyifeng.com/blog/2013/03/similar_image_search_part_ii.html,其中颜色分布法就是颜色直方图的一种,我的上一遍blog阐述过了。二年前,我写了《相似图片搜索的原理》,介绍了一种最简单的实现方法。昨天,我在isnowfy的网站看到,还有其他两种方法也很简单,这里做一些笔
2015-05-17 23:11:43
3131
原创 相似图片搜索原理三(颜色直方图—c++实现)
图像的颜色直方图可以用于图像检索,适应有相同色彩,并且可以有平移、缩放、旋转不变性的图像检索,当然了这三大特点不如sift或者surf稳定性强,此外最大的局限就是如果形状内容一样,但色彩不一,结果是搜不到的。不过它在某些情况下达到较好的结果。颜色直方图两种计算方式:彩色图像的颜色直方图,这里可以有两种处理方式,得到的效果应该差不多。 首先第一种就是对像素的每个通道都进行划分
2015-05-17 23:04:27
6346
2
原创 相似图片搜索原理二(phash—c++实现)
前段时间介绍过相似图片搜索原理一(ahash)http://blog.youkuaiyun.com/lu597203933/article/details/45101859,它是基于内容检索最简单的一种;这里介绍它的增强版本感知哈希算法(perceptual hash, phash)。它主要也是用缩略图搜原图并能达到较好点的效果.理论部分:理论部分主要包括以下几个步骤: 图像缩放—将图像缩
2015-05-17 22:08:13
8447
原创 贝叶斯网络
贝叶斯网络、马尔科夫随机场(MRF, Markov RandomField)和因子图都属于概念图,因此它们都归属于机器学习中的概念图模型(PGM,Probability Graphical Model).一:定义贝叶斯网络,又称信念网络(Belief Network, BN),或有向无环图模型,是由一个有向无环图(DAG,Directed acyclic graphical model
2015-05-16 10:23:34
8627
原创 最大熵模型简记
最近两天简单看了下最大熵模型,特此做简单笔记,后续继续补充。最大熵模型是自然语言处理(NLP, nature language processing)被广泛运用,比如文本分类等。主要从分为三个方面,一:熵的数学定义;二:熵数学形式化定义的来源;三:最大熵模型。注意:这里的熵都是指信息熵。一:熵的数学定义:下面分别给出熵、联合熵、条件熵、相对熵、互信息的定义。 熵:如果一个随机
2015-05-11 22:55:48
3157
原创 leetcode 专题—sort
此将主要将leetcode中sort专题的解答都放在这里,后续会慢慢加入一:leetcode179 Largest Number题目:Given a list of non negative integers, arrange them such that they form the largest number.For example, given [3, 30, 3
2015-05-06 19:26:34
1990
1
原创 leetcode LinkList专题
此次blog会将leetcode上的linklist专题内容放在这里,后续慢慢添加一:leetcode 206 Reverse Linked List 二:leetcode 92 Reverse Linked List II一:leetcode 206 Reverse Linked List题目:Reverse a singly linked list.代码:
2015-05-06 16:09:34
1135
原创 leetcode 204/187/205 Count Primes/Repeated DNA Sequences/Isomorphic Strings
一:leetcode 204 Count Primes题目:Description:Count the number of prime numbers less than a non-negative number, n分析:此题的算法源码可以参看这里,http://en.wikipedia.org/wiki/Sieve_of_Eratosthenes代码:cl
2015-05-06 14:27:00
1613
转载 以图搜图相关资料
转载出处:blog.youkuaiyun.com/carson2005 基于内容的图片检索(Content Based Image Retrieval, CBIR),也有人称之为以图搜图,是一个很老的研究领域,它是利用机器学习、模式识别、计算机视觉等相关技术对图片的内容进行分析、检测、检索的一种应用。随着近年来模式识别与机器学习的快速发展,该领域又逐渐火热起来,并涌现出很多实际可用的商业
2015-05-05 15:48:05
2721
图片检索(均匀hash,感知hash,颜色直方图)
2015-05-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人