
机器学习
晴堂
喜欢学习,爱钻研的程序员。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Logistic回归模型(C++代码实现)
Logistic回归主要针对输入的数据是多个,输出则是有限的数值型,多为2个分类。涉及到以下方面:1. 输出y = w0+w1*x1+w2*x2+..... (x1,x2,...是样本的属性值,为连续型的变量,w0,w1,w2,...为所要求的参数,y为有限的数值型变量,表示样本所属类别)。2. logistic模型: 1/(1+exp(-z)),其中z= w0+w1*x1+w2*x2原创 2017-04-22 00:19:21 · 8141 阅读 · 2 评论 -
神经网络ANN分类器及OpenCV实现
OpenCV中实现神经网络分类非常简单,使用CvANN_MLP定义分类器,CvANN_MLP_TrainParams设置训练参数,添加训练数据,使用train和predict进行训练和预测。 CvANN_MLP_TrainParams各训练参数说明: term_crit:训练算法的终止标准,确定算法的最大迭代次数(对序列反向传播算法,该值乘以训练集大小)和两次迭原创 2016-11-22 23:23:51 · 8995 阅读 · 1 评论 -
SVM支持向量分类器原理及OpenCV实现
SVM原理: 通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。假设给定一些分属于两类的2维点,这些点可以通过直线分割, 我们要找到一条最优的分割线,如下图所示:原创 2016-11-20 22:58:37 · 3349 阅读 · 1 评论 -
自编码器原理以及相关算法 Basic Auto-Encoder,Regularized Auto-Encoder,Denoising Auto-Encoder
在机器学习中,自编码器的使用十分广泛,掌握其原理很重要。网上有很多资料对其讲解,我这里把自己的理解记录下来,但求直观简单明确。 Auto-Encoder这里我简称AE,我们可以简单的将其认为是一个三层的网络,分别为输入层(x),中间隐含层(h),输出层(y)。其结构如下图所示:原创 2017-04-25 23:30:43 · 3176 阅读 · 0 评论 -
TensorFlow实现去噪自编码器及使用—Masking Noise Auto Encoder
有关于自编码器的原理,请参考博客http://blog.youkuaiyun.com/xukaiwen_2016/article/details/70767518;对于对其与原理熟悉的可以直接看下面代码。 首先是使用到的相关库,数学运算相关操作库Numpy和对数据进行预处理的模块Scikit-lean中的preprocessing,使用TensorFlow的MNIST作为原创 2017-04-26 23:22:28 · 8032 阅读 · 2 评论 -
卷积神经网络CNN原理以及TensorFlow实现
在知乎上看到一段介绍卷积神经网络的文章,感觉讲的特别直观明了,我整理了一下。首先介绍原理部分。 通过一个图像分类问题介绍卷积神经网络是如何工作的。下面是卷积神经网络判断一个图片是否包含“儿童”的过程,包括四个步骤:图像输入(InputImage)→卷积(Convolution)→最大池化(MaxPooling)→全连接神经网络(Fully-ConnectedNeural原创 2017-04-27 23:10:10 · 51806 阅读 · 28 评论