- 博客(20)
- 收藏
- 关注
原创 Caffe:深度学习中 epoch,[batch size], iterations的区别
在大部分深度学习架构中都抛不开三个概念epoch,[batch size], iterations;接下来就对这三个概念逐一解释一下one epoch:所有的训练样本完成一次Forword运算以及一次BP运算batch size:一次Forword运算以及BP运算中所需要的训练样本数目,其实深度学习每一次参数的更新所需要损失函数并不是由一个{data:label}获得的
2016-07-04 15:30:37
23134
4
原创 OpenCV完成图像旋转
图像旋转作为图像处理的基础功能,但在实现细节上是多种多样的,我这里介绍一种基于旋转+平移完成图像的旋转。 1、仿射变换矩阵
2015-09-21 20:59:22
1043
原创 Mac下安装OpenCV3.0—包含opencv_contrib模块
OpenCV3.0正式版终于发布了,但肯定有很多小伙伴跟我一样,发现按照以往的方式安装以后并不能体验这个版本最新引入的各种高大上算法。原来是因为很多最新引入的算法模块还不算稳定,不能当做官方版来发布(http://opencv.org/opencv-3-0.html)。那接下来就需要安装这个额外模块并且体验一下新算法。1、 安装cmake程序。可以使用Homebrew,在终端中输入:“
2015-07-13 16:41:30
6853
原创 Deep Learning学习笔记(一):卷积神经网络(CNN)
Deep Learning 在形式表现上非常类似多层感知机,甚至可以说是多层感知机的一个发展,但是DL又在神经网络的结构上体现了划时代的思维方式。下面就来看一个具体的例子,DL非常著名的网络模型:卷积神经网络(CNN)。 卷积神经网络是为识别二维形状而特殊设计的一个多层感知机,并且无论这个二维形状平移,缩放或者经过其他形式的变换,多层感知机都可以将这个二维形状进行识别。当然要完成这
2015-03-04 16:56:04
2282
原创 使用s3fs将S3存储桶挂载在Linux的文件系统下
亚马逊的S3(Simple Storage Service)服务是一个服务于互联网用户的存储类服务。类似于网盘一样,可以通过网络随时随地的获取存储的数据。用户可以使用亚马逊提供的S3 Management Console去管理自己的S3存储桶。如果想要更多的了解S3服务,请点击这里。今天分享的重点并不是传统意义上的如何使用S3,而是如何把S3存储桶挂载到Linux的文件系统下,这样操作存储桶里的数
2015-01-26 18:53:57
14179
原创 使用MLP解决OCR问题(OpenCV)(下)
分类模型: 分类模型涉及的一个比较关键的问题就是输出的10维向量是如何与具体的类别挂钩的。实际上:10维向量的每一位都代表一类,在对于训练集的表达中,如果输入数据是0,则10维向量的第一位赋值为1,其余均为0。即0对应[1,0,0,0,0,0,0,0,0,0]。MLP模型训练完成后,就需要对用户输入的数据所属类别进行判定。这时得到的输出数据基本不可能是正好的所属类为1,其他位置为0
2015-01-23 16:35:21
1785
原创 使用MLP解决OCR问题(OpenCV)(上)
在之前有关神经网络的文章中,大部分都是对神经网络的概念阐述以及一些公式的推导,比较枯燥且较难直接应用到实际中,今天就来介绍一下神经网络的一个简单的实际应用——解决OCR问题。LeCun等大神已经使用CNN算法解决了很多OCR问题,这里再去解决OCR的问题并不是要达到多好的效果,而是抛砖引玉让大家了解如何使用MLP算法。关于MLP的类库有很多,在本篇文章中使用的是偏重于图像处理的OpenCV。
2015-01-23 11:47:14
2415
原创 神经网络学习笔记(十二):异或问题
在Rosenblatt单层感知机中已经对异或问题做了介绍,并论证说明了只适用于线性分类问题的Rosenblatt感知机无法对异或问题进行分类。然而非线性问题是普遍存在的,下面就使用带隐藏节点的神经网络来解决异或问题。异或问题: 异或(XOR)问题可以看做是单位正方形的四个角,响应的输入模式为(0,0),(0,1),(1,1),(1,0)。第一个和第三个模式属于
2014-12-24 14:40:25
34022
原创 神经网络学习笔记(十一):多层感知机(下)
在上一章节中介绍了多层感知机最关键的BP算法,在这一节中主要对包括BP算法在内的多层感知机的一些细节问题进行概述。激活函数 BP算法中计算多层感知机每一个需要神经元的激活函数的导数知识。从根本上讲激活函数必须满足的要求是可微性。通常用于多层感知机的连续可微非线性函数的一个例子是sigmoid;这里有两种形式:1、logistic函数:0" targ
2014-12-23 14:17:12
2011
原创 神经网络学习笔记(十):多层感知机(中)--BP算法
多层感知机监督训练在线学习的流行正是由于反向传播(BP算法)算法的提出而得到了加强,BP算法可以说是神经网络的核心算法。 如下图所示,神经元j被它左边的一层神经元产生的一组函数信号所馈给。因此神经元j的激活函数输入处所产生的诱导局部域是: (1.1)
2014-12-22 11:02:49
4132
原创 神经网络学习笔记(九):多层感知机(上)
在前面我们所讨论的Rosenblatt感知机,其本质是一个单层神经网络。但这一网络局限于线性可分模式的分类问题。而由Widrow和Hoff(1960)提出的最小均方算法(LMS)也是基于权值可调的单个线性神经元。同样限制了这一算法的计算能力。为了克服上述局限,多层感知机(MLP)应运而生。多层感知机: 多层感知机的基本特征: 网络中每个神经元模型包含一
2014-12-19 14:30:36
3001
原创 神经网络学习笔记(八):线性回归模型(下)
在前面我们所讨论的Rosenblatt感知机是解决线性可分模式分类问题的第一个学习算法。而由Widrow和Hoff(1960)提出的最小均方算法(LMS)是第一个解决如预测和信道均等化等问题的线性自适应滤波算法。LMS算法结构: 与感知机结构类似,该算法也是有M维输入以及单一输出构成的数据集: 其中
2014-12-04 15:56:34
1578
原创 神经网络学习笔记(七):线性回归模型(上)
神经网络(Neural Networks)是受到人类大脑对于外界事物认知方式的启发建立的机器学习算法,也叫人工神经网络(ArtificialNeural Networks)。
2014-11-20 16:02:01
3272
原创 神经网络学习笔记(六):感知机收敛定理
神经网络(Neural Networks)是受到人类大脑对于外界事物认知方式的启发建立的机器学习算法,也叫人工神经网络(ArtificialNeural Networks)。
2014-11-18 16:01:53
5067
原创 神经网络学习笔记(五):感知机
神经网络(Neural Networks)是受到人类大脑对于外界事物认知方式的启发建立的机器学习算法,也叫人工神经网络(ArtificialNeural Networks)。
2014-11-18 10:57:51
2977
原创 神经网络学习笔记(四)
一组连接(类比于生物神经元的树突),更准确的讲是一组输入。而每一个输入都会有一个权重进行作用。第k个神经元的第j个树突接收到的一个输入xj,那么这个输入将被权重wkj作用,其中下标表示第k个神经元的第j个树突的权重。
2014-11-14 17:56:55
5011
原创 神经网络学习笔记(三)
一个神经元我们可以看做是一个简单的神经网络,但是由生物学常识我们可以知道,大部分的行为不可能由单一的神经元完成,需要一个庞大的神经网络,那我们再后面的绘图过程中不可能把每个神经元绘制的很复杂,下面提供三种绘图方式都表示的是神经元,只不过会根据需要不同去选择。
2014-11-13 15:41:41
1351
原创 神经网络学习笔记(一)
先说一下大致的安装环境: 系统:CentOS 6.5 下载了OpenCV_2.4.10 并且安装cmake 在windows平台上OpenCV的最新版本已经在build文件夹中生成了对应VS的各个版本相应的静态编译库。 但在Linux平台下就要自己去折腾出来了。细心的朋友们肯定已经发现按照官网提供的默
2014-11-11 17:55:25
1583
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人