
deep learning
SauryGo
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
GAN介绍 - 为什么学习生成式模型?
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-03 07:25:32 · 3661 阅读 · 0 评论 -
GAN介绍 - 相关研究课题
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-13 05:22:43 · 1898 阅读 · 0 评论 -
GAN介绍 - 总结
总结GAN是使用有监督学习来优化一个难以控制的损失函数的生成式模型, 很像玻尔兹曼机(Boltzmann machine)使用马尔可夫链(Markov chain)来优化他们的损失函数, 以及VAE使用变分低边界(variational lower bound)来优化他们的损失函数。 GAN可以使用此有监督的比值估计技术,来近似很多的损失函数, 包括最大似然估计使用的KL散度。GAN...转载 2018-11-13 05:27:15 · 716 阅读 · 0 评论 -
经典翻译|Network In Network 深度学习中的GAP和NIN
摘要 我们提出了一种新型的深度网络结构,称为“Network In Network”(NIN),它可以增强模型在感受野(receptive field)内对局部区域(local patches)的辨别能力。传统的卷积层使用线性滤波器来扫描输入,后面接一个非线性激活函数。而我们则构建了一些结构稍复杂的微型神经网络来抽象receptive field内的数据。 我们用多层感知器实例化微型神经网络,这是...转载 2018-11-08 00:17:06 · 4250 阅读 · 1 评论 -
卷积层之间是否应该使用dropout?
原因:请看我的博客 https://blog.youkuaiyun.com/sean2100/article/details/83783632 结论:应该仅在全连接层上使用Dropout操作,并在卷积层之间使用批量标准化。 ...原创 2018-11-08 00:32:01 · 10443 阅读 · 3 评论 -
GAN介绍 - GAN是如何工作的?
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-11 11:46:11 · 1998 阅读 · 0 评论 -
GAN介绍 - 即插即用生成网络(PPGN)
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-13 17:46:54 · 2559 阅读 · 0 评论 -
GAN合集:各种生成对抗网络,都在这里了
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-13 17:54:28 · 7530 阅读 · 0 评论 -
GAN介绍 - 提示与技巧
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-12 00:08:00 · 2273 阅读 · 0 评论 -
GAN介绍 - 练习题
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-13 22:39:52 · 853 阅读 · 0 评论 -
VGG16和VGG19网络结构图
VGG16VGG19原创 2018-11-07 10:31:24 · 48453 阅读 · 1 评论 -
使用反卷积(Deconvnet)可视化CNN卷积层,查看各层学到的内容
通过deconv将CNN中conv得到的feature map还原到像素空间,以观察特定的feature map对哪些pattern的图片敏感,这里的deconv其实不是conv的可逆运算,只是conv的transpose,所以tensorflow里一般取名叫transpose_conv。一、相关理论本篇博文主要讲解2014年ECCV上的一篇经典文献:《Visualizing and Un...转载 2018-11-03 00:10:49 · 13352 阅读 · 4 评论 -
GAN介绍 - 介绍
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-02 23:30:35 · 7042 阅读 · 0 评论 -
关于CNN中dropout的一些要点
dropout层的作用是防止训练的时候过拟合。在训练的时候,传统的训练方法是每次迭代经过某一层时,将所有的结点拿来做参与更新,训练整个网络。加入dropout层,我们只需要按一定的概率(retaining probability)p 来对weight layer 的参数进行随机采样,将被采样的结点拿来参与更新,将这个子网络作为此次更新的目标网络。这样做的好处是,由于随机的让一些节点不工作了,因此可...原创 2018-11-06 10:43:55 · 4903 阅读 · 0 评论 -
深入解析Dropout
过拟合是深度神经网(DNN)中的一个常见问题:模型只学会在训练集上分类,这些年提出的许多过拟合问题的解决方案;其中dropout具有简单性并取得良好的结果:Dropout上图为Dropout的可视化表示,左边是应用Dropout之前的网络,右边是应用了Dropout的同一个网络。Dropout的思想是训练整体DNN,并平均整个集合的结果,而不是训练单个DNN。DNNs是以概率P舍弃...转载 2018-11-06 10:58:49 · 418 阅读 · 0 评论 -
Dropout过时了吗
人工智能和深度学习很火,对应的职位其薪水和前景都很不错。很多人想转行从事这方面的研究,大部分都是靠自学相关的知识来进行入门和提升。网络上有很多资源可以用来学习深度学习相关的内容。但不幸的是,大多数资源在建立模型时候很少解释为什么这样构造会取得较好的效果,其根本原因在于目前深度学习相关的理论类似于一个黑匣子,暂时无法解释得清楚,只能通过实验来证明。此外,随着相关的深入研究,会出现一些新的发现,...转载 2018-11-06 11:05:35 · 7988 阅读 · 0 评论 -
深度学习的目标检测通览(上)
近年来,深度学习模型逐渐取代传统机器视觉方法而成为目标检测领域的主流算法,本系列文章将回顾早期的经典工作,并对较新的趋势做一个全景式的介绍,帮助读者对这一领域建立基本的认识。(营长注:因本文篇幅较长,营长将其分为上、下两部分。)导言:目标检测的任务表述如何从图像中解析出可供计算机理解的信息,是机器视觉的中心问题。深度学习模型由于其强大的表示能力,加之数据量的积累和计算力的进步,成...转载 2018-11-06 15:58:51 · 1709 阅读 · 0 评论 -
深度学习的目标检测通览(下)
近年来,深度学习模型逐渐取代传统机器视觉方法而成为目标检测领域的主流算法,本系列文章将回顾早期的经典工作,并对较新的趋势做一个全景式的介绍,帮助读者对这一领域建立基本的认识。导言:目标检测的任务表述 如何从图像中解析出可供计算机理解的信息,是机器视觉的中心问题。深度学习模型由于其强大的表示能力,加之数据量的积累和计算力的进步,成为机器视觉的热点研究方向。 那么,如何理...转载 2018-11-06 16:01:15 · 1332 阅读 · 0 评论 -
CNN的全连接层已过时?全局平均池化(GAP)了解一下
Traditional Pooling Methods要想真正的理解Global Average Pooling,首先要了解深度网络中常见的pooling方式,以及全连接层。众所周知CNN网络中常见结构是:卷积、池化和激活。卷积层是CNN网络的核心,激活函数帮助网络获得非线性特征,而池化的作用则体现在降采样:保留显著特征、降低特征维度,增大kernel的感受野。深度网络越往后面越能捕捉到...转载 2018-11-06 16:25:09 · 11392 阅读 · 0 评论 -
CNN的旋转不变性和pooling
卷积神经网络本身的设计对旋转不变性没有进行专门的考虑,只不过max-pooling可以稍微补偿一下这个功能,只是角度变化太大,可能会作用不大,但因为max-pooling并不是为此而设计的,所以总体上说CNN提取旋转不变的特征能力是比较弱的。论文Group Equivariant Convolutional Networks和spherical CNNs对网络结构的旋转不变性设计进行了理论分析...转载 2018-11-06 16:32:06 · 2659 阅读 · 0 评论 -
GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-10 03:28:09 · 5524 阅读 · 0 评论 -
VGGnet的网络结构和特点
1 网络结构: 以224*224输入图片为例: 感觉VGGNet就是加深版的AlexNet,都是卷积与池化的叠加,最后再加两层全连接,然后softmax输出。VGGNet有5段卷积,每段卷积由2~3个卷积层后加一个最大池化组成。卷积核的数量也随着层数的增加而增多。VGGNet也沿用了AlexNet数据增强的方法(Multi-Scale)防止模型过拟合。 相较与AleNet,VGGNet最...转载 2018-11-02 23:03:09 · 3897 阅读 · 0 评论 -
GAN介绍 - 练习题答案
GAN介绍 - 介绍 https://blog.youkuaiyun.com/sean2100/article/details/83662975GAN介绍 - 为什么学习生成式模型? https://blog.youkuaiyun.com/sean2100/article/details/83681043GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.youkuaiyun.com/...转载 2018-11-13 22:40:29 · 852 阅读 · 0 评论