
CNN分析
qq_32790593
这个作者很懒,什么都没留下…
展开
-
2019-12-14卷积神经网络CNN模块化剖析
文章目录一、深度学习概述1.1 发展历程1.2 深度学习的兴起1.3 深度学习的特点1.4 深度学习的优势二、卷积神经网络剖析2.1 卷积层2.2 池化层2.3 非线性激活函数2.4 全连接层2.5 损失函数2.6 反向传播2.7 网络优化三、项目实战一、深度学习概述1.1 发展历程上世纪60年代,Hubel等人通过对猫视觉皮层细胞的研究,提出了感受野这个概念。到80年代,日本科学家福...转载 2019-12-14 19:52:13 · 851 阅读 · 0 评论 -
CNN---用于图像分类的经典的卷积神经网络CNN
文章目录概览1.计算机视觉简介:2.图像分类一、LeNet-51.模型架构2.模型简介3.模型特点二、AlexNet1.网络架构2.模型介绍3.模型特点三、VGGNet1.模型架构2.模型简介3.模型特点四、GoogLeNet1. 网络架构2、模型解析3、模型特点五、ResNet(深度残差网络)1、模型解析2、模型特点六、DenseNet1.模型架构2.模型特点在上一篇详细讲解了卷积神经网络的...转载 2019-12-13 16:01:49 · 2955 阅读 · 1 评论 -
MATLAB2017a使用FasterRcnn目标检测训练及其测试流程
https://blog.youkuaiyun.com/qq_42263796/article/details/80453438原创 2019-09-17 10:22:09 · 884 阅读 · 0 评论 -
对全连接层(fully connected layer)的通俗理解
全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1x1的卷积;而前层是卷积层的全连接层可以转化为卷积核为hxw的全局卷积,...转载 2019-06-04 15:42:14 · 5719 阅读 · 0 评论 -
深度学习基础(CNN详解以及训练过程1)
深度学习基础(CNN详解以及训练过程1) 深度学习是一个框架,包含多个重要算法: Convolutional Neural Networks(CNN)卷积神经网络AutoEncoder自动编码器Sparse Coding稀疏编码Restricted Boltzmann Machine(RBM)限制波尔兹曼机Deep Belief N...转载 2019-06-04 15:41:03 · 2738 阅读 · 1 评论 -
物体定位与检测
原 物体定位与检测 2017年07月28日 14:13:17 invadertroy 阅读数:10199 ...转载 2019-06-04 15:34:34 · 423 阅读 · 0 评论 -
CNN
https://www.cnblogs.com/gujianhan/category/617736.html转载 2019-05-18 14:52:14 · 114 阅读 · 0 评论 -
基于深度学习的目标检测1
代码初学者当你心中只有一个目标时,全世界都会给你让路!Read more! Write more! Practise more! <div id="post_detail"> 基于深度学习的目标检测 普通的深度学习监督算法主要是用来做分类,如图1(1)所示,分类的目标是要识别出图中所示是一只猫。而在IL...转载 2019-05-18 10:50:14 · 487 阅读 · 0 评论 -
trainingOptions
https://ww2.mathworks.cn/help/deeplearning/ref/trainingoptions.html;jsessionid=c684da07d1fa2b08ec516b6933ab?action=changeCountry&s_tid=gn_loc_drop原创 2019-05-12 22:26:04 · 2094 阅读 · 0 评论 -
matlab做深度学习(一)- --CNN1
1.使用深度学习做目标检测上一篇博客已经讲解了怎么用matlab导入数据。[trainingImages,trainingLabels,testImages,testLabels] = helperCIFAR10Data.load('cifar10Data');使用这个指令就可以导入CIFAR-10 data的数据。使用下面指令查看样本和图片大小:size(trainingImages)...转载 2019-05-12 22:23:16 · 2651 阅读 · 1 评论 -
深度学习调参,CNN参数调参,各个参数理解和说明以及调整的要领。underfitting和overfitting的理解,过拟合的解释。1
转载:https://blog.youkuaiyun.com/qq_20259459/article/details/70316511因为最近一直比较忙所以就有一段时间没有更新了。终于今天开始着手写这篇关于参数的文章了,可以说我自己其实也在一直进行着各种调参而且有了一段时间了。作为自己的...转载 2019-05-12 22:13:18 · 1568 阅读 · 0 评论 -
【Caffe】网络参数详解(Alexnet举例)1
<link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-f57960eb32.css"> <link rel="stylesheet" href="https://csdnimg.cn/...转载 2019-05-12 22:08:45 · 594 阅读 · 0 评论 -
各种layer的operation
http://caffe.berkeleyvision.org/tutorial/layers.html转载 2019-05-12 22:04:59 · 378 阅读 · 0 评论 -
AlexNet1
<p>半路上车,Deep Learning 这块还在断断续续地慢慢学,但是由于现在测 TensorFlow 性能的需要,所以来学一下 AlexNet(额,听说 CNN 的计算量不少)。</p>AlexNet 是 2012 年 ImageNet 竞赛冠军获得者 Alex Krizhevsky 设计的,所以叫这个名字,这个也一直是入门 CNN 的经典模型。参考的材...转载 2019-05-12 22:02:52 · 163 阅读 · 0 评论 -
经典卷积神经网络结构——AlexNet网络结构详解1
在 LeNet 问世后的第4年,2012年, AlexNet 在 ImageNet LSVRC-2010 数据集上对1000个类别的图像进行分类取得了当时最好的效果;同时在 ILSVRC-2012 数据集上取得了当时第一的成绩。在AlexNet之后,图像分类模型越来越复杂,网络也越来越 deep。现在 AlexNet 仍然可以应用到小数据集上,做一些验证性的实验。原论文https://pape...转载 2019-05-12 21:08:01 · 745 阅读 · 0 评论 -
卷积神经网络超详细介绍1
1、卷积神经网络的概念2、 发展过程3、如何利用CNN实现图像识别的任务4、CNN的特征5、CNN的求解6、卷积神经网络注意事项7、CNN发展综合介绍8、LeNet-5结构分析9、AlexNet10、ZFNet10.1 意义10.2 实现方法10.3 训练细节10.4 卷积网络可视化10.6 总结11、VGGNet11.1 结构11.2 网络特点:11.3 分类框架:12、GoogLeNet12....转载 2019-05-12 16:17:20 · 4869 阅读 · 0 评论 -
卷积神经网络CNN中的各种意义1
只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义CNN的目的简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要的步骤在于特征提取,即如何提取到能最大程度区分事物的特征。如果提取的特征无法将不同的事物进行划分,那么该特征提取步骤将毫无意义。而实现这个伟大的模型的,是对CNN进行迭代训练。特征...转载 2019-05-12 09:50:55 · 858 阅读 · 0 评论 -
深度学习--梯度下降
深度学习必备:随机梯度下降(SGD)优化算法及可视化 补充在前:实际上在我使用LSTM为流量基线建模时候,发现有效的激活函数是elu、relu、linear、prelu、leaky_relu、softplus,对应的梯度算法是adam、mom、rmsprop、sgd,效果最好的组合是:prelu+rmsprop。我的代码如下:# Simple example using rec...转载 2019-05-20 11:30:25 · 324 阅读 · 0 评论 -
梯度下降法
NeilZhang <div id="post_detail"> 监督学习——随机梯度下降算法(sgd)和批梯度下降算法(bgd) 线性回归 首先要明白什么是回归。回归的目的是通过几个已知数据来预测另一个数值型数据的目标值。&...转载 2019-05-20 10:38:49 · 212 阅读 · 0 评论