
深度学习与计算机视觉
@迷途小书童
这个作者很懒,什么都没留下…
展开
-
线性分类
1,基本概念在机器学习领域,分类的目标是指将具有相似特征的对象聚集。而一个线性分类器则透过特征的线性组合来做出分类决定,以达到此种目的。对象的特征通常被描述为特征值,而在向量中则描述为特征向量。2,线性分类表达式线性分类器用作图像分类主要有两部分组成:一个是假设函数, 它是原始图像数据到类别的映射。另一个是损失函数,该方法可转化为一个最优化问题,在最优化过程中,将通过更新假设函数的参数值来最...原创 2019-06-12 19:36:19 · 905 阅读 · 0 评论 -
Softmax分类器及最优化
1,基本内容将线性分类得到的得分值转化为概率值,进行多分类,在SVM中的输出是得分值,Softmax的输出是概率。2,Sigmoid函数表达式(值域为[0,1]):函数图像:Sigmoid函数可将任意实数映射到概率值[0,1]区间上,实现根据概率值的大小进行分类。3,Softmax的输出softmax 函数:其输入值是一个向量,向量中元素为任意实数的评分值,输出一个向量,其中每...原创 2019-06-12 20:27:41 · 13341 阅读 · 1 评论 -
神经网络原理简介
1,类比生物神经元2,层次结构输入层,隐藏层(1,2),输出层;线可以理解为权重参数w。在神经网络中需要指定w的大小(矩阵的大小)3,非线性结构(激活函数)激活函数作用于前一层权重参数后:4,激活函数4.1 Sigmoid激活函数反向传播中的求导操作:当x的绝对值较大时,则导数接近为0,则在链式法则中易出现梯度消失,使得权重参数无法进一步更新,神经网络也无法收敛,因此后来的神经网...原创 2019-06-13 08:39:50 · 2129 阅读 · 0 评论 -
卷积神经网络原理简介
1,概念简介卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-i...原创 2019-06-13 11:02:34 · 12370 阅读 · 4 评论 -
交叉熵简介
1,信息论1.1 信息量机器学习的本质是信息论。在信息论中,首先我们引入了信息熵的概念。认为一切信息都是一个概率分布。所谓信息熵,就是这段信息的不确定性,即是信息量。如果一段信息,我无论怎么解读都正确,就没有信息量。如果一个信息,我正确解读的概率极低,就包含了极大信息量。假设X是一个离散型随机变量,其取值集合为χ,概率分布函数为:则定义事件X=x0的信息量为:由于是概率所以p(x0)...原创 2019-06-25 09:32:19 · 2225 阅读 · 0 评论 -
VGG卷积神经网络模型加载与运行
1,VGG概述VGG Net由牛津大学的视觉几何组(Visual Geometry Group)和 Google DeepMind公司的研究员一起研发的的深度卷积神经网络,在 ILSVRC 2014 上取得了第二名的成绩,将 Top-5错误率降到7.3%。它主要的贡献是展示出网络的深度(depth)是算法优良性能的关键部分。他们最好的网络包含了16个卷积/全连接层。网络的结构非常一致,从头到尾全...原创 2019-06-25 20:52:48 · 2384 阅读 · 0 评论 -
BP算法基础与实现
1,内容简介BP算法(backpropagation,反向传播算法)的学习过程,由信息的正向传播和误差的反向传播两个过程组成。输入层各神经元介绍来自外界的输入信息,并传递给中间层各神经元。中间层是内部信息处理层,负责信息变换,根据信息变化能力的需求,中间层可以设计为单隐层或多隐层结构。最后一个隐层传递到输出层各神经元的信息,经过进一步处理后,完成一次正向的传播过程,由输出层向外界输出信息处理的结...翻译 2019-06-23 09:05:01 · 5186 阅读 · 0 评论 -
AlexNet中的局部响应归一化(LRN)
1,简介局部响应归一化(Local Response Normalization,LRN),提出于2012年的AlexNet中。首先要引入一个神经生物学的概念:侧抑制(lateral inhibitio),即指被激活的神经元抑制相邻的神经元。LRN仿造生物学上活跃的神经元对相邻神经元的抑制现象(侧抑制)。归一化(normaliazation)的目的就是“抑制”,LRN就是借鉴这种侧抑制来实现局部...原创 2019-06-29 10:28:09 · 2220 阅读 · 0 评论 -
批标准归一化(Batch Normalization)解析
1,原创 2019-06-29 12:00:49 · 2257 阅读 · 0 评论