
Machine learning
文章平均质量分 72
Alanyannick
Computer Vision, Machine learning, Artificial intelligence.
展开
-
机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machin转载 2016-05-07 17:03:05 · 589 阅读 · 0 评论 -
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解转载 2016-05-07 17:08:46 · 797 阅读 · 0 评论 -
浅析人脸检测之Haar分类器方法
reference link:http://www.cnblogs.com/ello/archive/2012/04/28/2475419.html 由于工作需要,我开始研究人脸检测部分的算法,这期间断断续续地学习Haar分类器的训练以及检测过程,在这里根据各种论文、网络资源的查阅和对代码的理解做一个简单的总结。我试图概括性的给出算法的起源、全貌以及细节的来龙去脉,但是水平有限,只能解其转载 2016-05-09 20:52:47 · 625 阅读 · 0 评论 -
ubuntu14.04下的caffe环境配置(ubuntu14.04+Opencv2.4.9+cuda7.0)
Step1 install opencv2.4.9 on ubuntu(recommand)Opencv 2.4.9 according to Total reference : http://www.cnblogs.com/platero/p/3993877.html http://blog.youkuaiyun.com/wingfox117/article/details/46278001 htt原创 2016-04-08 15:59:22 · 7099 阅读 · 0 评论 -
Recall/Precision/FPPI 评价方式
参考:http://blog.youkuaiyun.com/wangran51/article/details/7579100http://blog.youkuaiyun.com/shaoxiaohu1/article/details/8998515最近一直在做相关推荐方面的研究与应用工作,召回率与准确率这两个概念偶尔会遇到,知道意思,但是有时候要很清晰地向同学介绍则有点转不过弯来。举个...转载 2016-06-22 15:16:57 · 13973 阅读 · 2 评论 -
信息检索(IR)的评价指标介绍 - 准确率、召回率、F1、mAP、ROC、AUC
reference:http://blog.youkuaiyun.com/marising/article/details/6543943在信息检索、分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总。准确率、召回率、F1信息检索、分类、识别、翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precision R转载 2016-06-22 17:08:58 · 1472 阅读 · 0 评论 -
马尔可夫随机场(Markov Random Field)与马尔可夫链
1.什么是随机过程?在当代科学与社会的广阔天地里,人们都可以看到一种叫作随机过程的数学模型:从银河亮度的起伏到星系空间的物质分布、从分子的布朗运动到原子的蜕变过程,从化学反应动力学到电话通讯理论、从谣言的传播到传染病的流行、从市场预测到密码破译,随机过程理论及其应用几乎无所不在。人类历史上第一个从理论上提出并加以研究的过程模型是马尔科夫链,它是马尔科夫对概率论乃至人类思想发展作出的又一伟大转载 2016-09-26 13:40:23 · 21283 阅读 · 5 评论 -
机器学习中的范数规则化:L0、L1与L2范数
今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。 监督机器学习问题无非就是“minimizeyour error whil转载 2017-01-03 18:39:47 · 702 阅读 · 0 评论 -
机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 第二篇的文章中谈到,和部门老大一宁出去outing的时候,他给了我相当多的机器学习的建议,里面涉及到很多的算法的意义、学习方法等等。一宁上次给转载 2016-05-07 17:07:24 · 606 阅读 · 0 评论 -
机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com 前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是突然听说最近Team准备做一套分布式的分类器,可能会使用Random Fo转载 2016-05-07 17:06:20 · 671 阅读 · 0 评论 -
Obeject Tracking Reference
Visual Tracker Benchmark http://cvlab.hanyang.ac.kr/tracker_benchmark/index.htmllink answer: http://www.zhihu.com/question/26493945原创 2016-04-12 14:26:02 · 701 阅读 · 0 评论 -
BP(Back Propagation)
简单的描述就是,输入层将刺激传递给隐藏层,隐藏层通过神经元之间联系的强度(权重)和传递规则(激活函数)将刺激传到输出层,输出层整理隐藏层处理的后的刺激产生最终结果。若有正确的结果,那么将正确的结果和产生的结果进行比较,得到误差,再逆推对神经网中的链接权重进行反馈修正,从而来完成学习的过程。这就是BP神经网的反馈机制,也正是BP(Back Propagation)名字的来源:运用向后反馈的学习机制,原创 2016-04-12 15:15:47 · 773 阅读 · 0 评论 -
奇异值分解(SVD) --- 几何意义
PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义。能在有限的篇幅把 这个问题讲解的如此清晰,实属不易。原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理 解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD。原文:We recommend a si转载 2016-04-25 11:21:30 · 2171 阅读 · 0 评论 -
Deep learning tutorial
Author : yangming wenIntroductionDeep learning(deep structured learning, hierarchical learning or deep machine learning) is a branch of machine learning based on a set of algorithms that attempt to m原创 2016-04-09 19:41:03 · 1863 阅读 · 0 评论 -
Fater-RCNN-Caffe Configuration
reference:http://www.ithao123.cn/content-9081517.htmlStep one:git clone --recursive https://github.com/ShaoqingRen/faster_rcnn.gitStep two:copy Makefile.config from caffe-master to faster_rcnn/external原创 2016-04-09 15:49:26 · 1010 阅读 · 0 评论 -
Matlab在Mac下使用libsvm配置
参考链接 http://www.matlabsky.com/thread-11925-1-1.html http://blog.youkuaiyun.com/abcjennifer/article/details/7370177 http://bbs.feng.com/read-htm-tid-5787323.html http://noalgo.info/363.html (recommend wi原创 2015-06-04 16:58:57 · 1444 阅读 · 0 评论 -
L1,L2正则化理解-奥卡姆剃刀(Occam's razor)原理
L0、L1与L2范数转自:zouxy09@qq.com http://blog.youkuaiyun.com/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在转载 2016-04-22 11:59:48 · 9382 阅读 · 0 评论 -
机器学习中的数学(2)-线性回归,偏差、方差权衡
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。如果有问题,请联系作者 wheeleast@gmail.com前言: 距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点转载 2016-05-07 17:05:16 · 960 阅读 · 0 评论 -
GAN网络生成:感知损失(Perceptual Losses)
本文是参考文献[1]的笔记。该论文是Li Fei-Fei名下的论文。引入最近新出的图像风格转换算法,虽然效果好,但对于每一张要生成的图片,都需要初始化,然后保持CNN的参数不变,反向传播更新图像,得到最后的结果。性能问题堪忧。但是图像风格转换算法的成功,在生成图像领域,产生了一个非常重要的idea,那就是可以将卷积神经网络提取出的feature,作为目标函数的一部分,通过比转载 2017-02-13 19:50:13 · 8469 阅读 · 0 评论