
机器学习
文章平均质量分 82
autocyz
本人在读硕士一枚,学习方向是图像处理,希望能有所进步
展开
-
深入理解卡尔曼滤波
卡尔曼滤波卡尔曼滤波的作用不用多说,就是根据前面已知的信息,预测将来可能发生的情况。对于一个系统来说,以跟踪系统为例,如果视频中待跟踪物体按静止不动,或者按照一定的规律运动时,那在当前帧便可以预测下一帧物体所在位置。但是实际中,物体的运动往往不是一成不变的,比如在视频中物体一直往右下角移动,但是移动的方向却或多或少有一定的变化,这种变化可以理解成一种随机噪声。因此需要找到一种随机估计方式,来估计系统原创 2016-02-25 16:00:25 · 6153 阅读 · 1 评论 -
L1相较于L2的稀疏性
L1相较于L2的稀疏性在机器学习中,常见的正则化项有L1(L=∑|w|L=\sum|w|)和L2(L=||w||2L=||w||^2),并且也经常会看到L1相较于L2有较高的稀疏性,虽然记住了这句话的内容,但总是不理解其具体含义,也不理解为何又稀疏性,在研究了一番后,有了一些理解,因此分享给大家。 (本文部分内容和图片引用自:https://www.zhihu.com/question/37096原创 2017-08-01 10:50:44 · 6200 阅读 · 0 评论 -
zero-shot learning
Zero-shot Learning参考文献《Zero-Shot Learning with Semantic Output Codes》背景在分类问题中,因为数据库大小有限,因此在使用分类模型进行预测时,出现了在训练集没有出现过的类别。举个例子,我们有个小型数据库,里面所含的类别只有人、鸟、汽车,经过我们的训练,发现模型对于这些类别的目标已经有很好的性能了,但是突然出现了一个新的类别——狗,此时模原创 2017-06-01 20:34:54 · 6049 阅读 · 0 评论 -
Contrastive Loss (对比损失)
Contrastive Loss (对比损失)在caffe的孪生神经网络(siamese network)中,其采用的损失函数是contrastive loss,这种损失函数可以有效的处理孪生神经网络中的paired data的关系。contrastive loss的表达式如下: L=12N∑n=1Nyd2+(1−y)max(margin−d,0)2L=\frac{1}{2N}\sum_{n=1}原创 2016-11-13 16:35:03 · 79183 阅读 · 10 评论 -
中国计算机学会推荐国际学术刊物、会议(人工智能与模式识别)
中国计算机学会推荐国际学术刊物1、A类刊物简称刊物全称出版社网址AIArtificial IntelligenceElsevierhttp://www.journals.elsevier.com/artificial-intelligence/TPAMIIEEE Trans on Patte原创 2015-04-03 13:23:02 · 3297 阅读 · 0 评论 -
计算机视觉、机器学习相关领域论文和源代码
内容复制过来,结果没法保存,所以直接给个链接吧。。。。。。http://blog.sciencenet.cn/blog-849193-834792.html 涵盖内容如下: 一、特征提取Feature Extraction:二、图像分割Image Segmentation:三、目标检测Object转载 2015-01-11 21:59:19 · 1083 阅读 · 0 评论 -
SVM学习机的使用
SVM能实现功能即在给出的正负样本中找到一条分割线(面),将正负样本分割出来。而这条分割线(面)即我们所说的分类器,其记录的正样本的特征,以及和负样本的区别。当有新的样本过来时,则通过和分类器比较即可分辨出新的样本是否属于正样本行列。 以车辆识别为例,SVM的一般使用步骤如下:1、获取正负样本。前面说了SVM能够找到一条存在与正负样本之间的分割线(面),那么何为正负样本呢?所谓原创 2015-03-11 15:11:51 · 2191 阅读 · 1 评论 -
K-means聚类算法
K-means聚类算法K-means(K均值)是基于数据划分的无监督聚类算法,也是数据挖掘领域的十大算法之一。 何为聚类算法?在某种程度上可以理解为无监督的分类方法。 聚类算法可以分为哪些部分? 一般来说可以分为基于划分的方法、基于连通性的方法、基于密度的方法、基于概率分布模型的方法等。K-means就是经典的基于划分的聚类方法。1、K-means的基本原理对于基于划分的这一类聚类原创 2015-07-04 11:08:18 · 9915 阅读 · 2 评论 -
k-means算法MATLAB和opencv代码
上一篇博客写了k-means聚类算法和改进的k-means算法,这篇博客就贴出对应的MATLAB和C++代码。以下是MATLAB代码,实现用k-means进行分割: %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 功能:实现如何利用Kmeans聚类实现图像的分割; 时间:2015-07 %%%%%%%%%%%%%%%%%%%%%原创 2015-07-06 13:06:18 · 4960 阅读 · 2 评论 -
KNN分类器
KNN学习(K-Nearest Neighbor algorithm,K最邻近方法 )是一种统计分类器,对数据的特征变量的筛选尤其有效。基本原理KNN的基本思想是:输入没有标签(标注数据的类别),即没有经过分类的新数据,首先提取新数据的特征并与测试集中的每一个数据特征进行比较;然后从测试集中提取K个最邻近(最相似)的数据特征标签,统计这K个最邻近数据中出现次数最多的分类,将其作为新的数据类别。 K原创 2015-07-07 10:56:45 · 13852 阅读 · 1 评论 -
朴素贝叶斯分类及应用
贝叶斯学习贝叶斯公式贝叶斯学习器其实是从经典的贝叶斯概率公式的来的,对于经典的贝叶斯公式: P(A|B)=P(B|A)P(A)P(B)P(A|B)={P(B|A)P(A)\over{P(B)}} 式中P(A)表示A的先验概率(即A发生的概率与B无关),P(A|B)表示A的后验概率(即在已知B发生的情况下,A发生的概率)朴素贝叶斯分类我们都知道贝叶斯是一个经典的求取概率的公式,那么贝叶斯又是怎么和原创 2015-07-15 10:13:23 · 3831 阅读 · 2 评论 -
三种SVM的对偶问题
一、SVM原问题及要变成对偶问题的原因对于SVM的,我们知道其最终目的是求取一分类超平面,然后将新的数据带入这一分类超平面的方程中,判断输出结果的符号,从而判断新的数据的正负。而求解svm分类器模型,最终可以化成如下的最优化问题: minw,bs.t.12∥w∥21−yi(w⋅xi+b)≤0i=1,2,...,N\begin{aligned} \displaystyle{\min_{w,b}} \原创 2015-12-25 09:21:48 · 8355 阅读 · 2 评论 -
深度剖析adaboost
在分析adaboost算法前,首先看一幅图。 如上图所示,adaboost算法的核心思想就是由分类效果较差的弱分类器逐步的强化成一个分类效果较好的强分类器。而强化的过程,就是如上图所示逐步的改变样本权重,样本权重的高低,代表其在分类器训练过程中的重要程度。adaboost算法流程下面首先来看一下在李航的《统计学习方法》一书中对adaboost的解释: 算法的输入:训练数据集T={(x1,y1原创 2016-05-03 16:56:50 · 5830 阅读 · 1 评论 -
逻辑回归
逻辑回归逻辑回归(Logistic Regression,LR)是一种很常用的分类算法,对于一般的二分类情况,给定N个训练样本,(x1,y1),(x2,y2)...(xN,yN)(x_1,y_1),(x_2,y_2)...(x_N,y_N),其中xi∈Rnx_i\in R^n是一个n维向量,yi∈{−1,+1}y_i\in \{-1,+1\}表示了其对应样本的标签,1代表正样本,-1代表负样本。一般原创 2016-06-07 11:25:41 · 1333 阅读 · 0 评论 -
反向传播算法(back propagation)
反向传播算法是多层神经网络的训练中举足轻重的算法,本文着重讲解方向传播算法的原理和推导过程。因此对于一些基本的神经网络的知识,本文不做介绍。在理解反向传播算法前,先要理解神经网络中的前馈神经网络算法。前馈神经网络如下图,是一个多层神经网络的简单示意图: 给定一个前馈神经网络,我们用下面的记号来描述这个网络: LL:表示神经网络的层数; nln^l:表示第ll层神经元的个数; fl(∙)f原创 2016-06-08 16:40:16 · 6341 阅读 · 0 评论 -
神经网络中的各种优化方法
神经网络中的各种优化方法大家耳熟能详的优化方法有梯度下降法(Gradient Descent)、随机梯度下降法(Stochastic Gradient Descent)、Adam方法等等。虽然很多听过甚至用过这些方法,但是却未必能够说出他们的区别,已经什么时候改用什么样的优化算法。这篇文章将会从原理、区别和使用场景等角度详细介绍神经网络中的各种优化算法。什么是优化算法优化算法就是一种能够帮我...原创 2018-10-17 17:48:27 · 30773 阅读 · 3 评论