
deeplearning
2h4n9y1m1n9
这个作者很懒,什么都没留下…
展开
-
faster-rcnn
Faster RCNN 1、Faster-rcnn主要分为以下4个部分: 1、Conv layers。Faster RCNN首先使用一组基础的conv+relu+pooling层提取image的feature maps。该feature map...原创 2020-04-23 15:43:39 · 534 阅读 · 0 评论 -
卷积神经网络复杂度分析(时间复杂度,空间复杂度)
原文:https://blog.youkuaiyun.com/laolu1573/article/details/79196160复杂度对模型的影响时间复杂度决定了模型的训练/预测时间。如果复杂度过高,会导致模型训练和预测耗费大量时间,既无法快速的验证想法和改善模型,也无法做到快速的预测。空间复杂度决定了模型的参数数量。由于维度灾难的限制,模型的参数越多,训练模型所需的数据量就越大,而现实生活中的数据集通常不...转载 2018-06-05 14:51:41 · 10847 阅读 · 1 评论 -
卷积神经网络的理解
卷积神经网络较全连接网络主要特点是局部相关和权值共享。局部相关的理论是对于一幅图像的一个像素点P来说,离这个像素点P越近的像素点对其影响也就越大。权值共享:根据自然图像的统计特性,某个区域的权值也可以作用于另一个区域。这里的全职共享说白了就是卷积核共享,对于卷积核将其与给定的图像做卷积,就可以提取一种图像的特征,不同的卷积核可以提取不同图像的特征。 卷积网络在图像信息提取方面较全连接网络的...原创 2018-06-29 10:57:58 · 260 阅读 · 0 评论 -
对神经网络的理解
神经网络输入的神经元其实可以看成输入数据的特征,对它进行相乘的权值就可以看成这个输入数据的特征对最后结果所造成影响的比重。原创 2018-06-29 11:18:16 · 340 阅读 · 0 评论 -
稀疏编码笔记
1、稀疏编码概述稀疏编码的概念来自于神经生物学。生物学家提出,哺乳动物在长期的进化中,生成了能够快速,准确,低代价地表示自然图像的视觉神经方面的能力,我们直观地可以想象,我们的眼睛每看到的一副画面都是上亿像素的,而每一幅图像我们都只用很少的代价重建与存储。我们把它叫做稀疏编码。2、L0范数与L1范数L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W的话,就是希...原创 2018-08-25 17:02:34 · 591 阅读 · 0 评论 -
深度学习中的卷积与反卷积
编码器与解码器神经网络本质上就是一个线性变换,通过将输入的多维向量与权重矩阵相乘,得到一个新的多维向量。当输入向量的维度高于输出向量的维度是,神经网络就相当于一个编码器,实现了对高维向量的低维特征提取.. 当输入向量维度低于输出向量维度时,神经网络就相当于一个解码器,实现了地位向量到高维向量的重构。然而,普通的神经网络仅能对向量进行操作,常见的图像、音频等高维数据都需要展开成向量才能输...原创 2018-08-25 18:04:07 · 364 阅读 · 0 评论 -
tensorflow之tf.placeholder 与 tf.Variable区别对比
Variable:主要是用于训练变量之类的。比如我们经常使用的网络权重,偏置。值得注意的是Variable在声明时必须赋予初始值。在训练过程中该值很可能会进行不断的加减操作变化。placeholder:也是用于存储数据,但是主要用于feed_dict的配合,接收输入数据用于训练模型等。placeholder值在训练过程中会不断地被赋予新的值,用于批处理,基本上其值是不会轻易进行加减操作。t...原创 2019-09-18 20:14:09 · 233 阅读 · 0 评论