从GoogLeNet架构到deep dream模型

虽然深度神经网络在计算机视觉方面的效果非常显著,但至今还没有非常严格的理论支撑。最开始学习CNN的时候,采用的都是手写体识别的例子,对其最直观的解释即随着层数增加,所学到的特征越来越抽象(大致按照“点-> 线->角->整体轮廓”的顺序)。同样地,谷歌技术团队在训练他们的GoogLeNet网络时,为了对网络所学到的特征有更好的理解,他们在特征可视化方面做了很多努力,同时也发现了一些美轮美奂的图画(如下为其中的一些)。本文将先介绍GoogLeNet网络结构相关的理论,再讲述特征可视化部分。

  Deep Dream神经网络,也就是GoogLeNet网络结构,它是基于Inception识别模型的。传统的卷积神经网络莫过于LeCun的LeNet-5了,如下图所示,
  它由卷积层、下采样层和全连接层组合而成,结构层数较少。而对于大型数据集,比如ImageNet数据集,为了显著提高算法的效果,就需要增加网络的复杂度(增加层数或者每层神经元个数),来增强模型的表达能力,同时,为了防止该模型过度拟合,比较简单的方法就是在训练模型的过程中,采用dropout的策略。但是通过增加网络复杂度来提高性能的方法是有缺点的,一是在训练数据数量固定的条件下,当网络结构变复杂时,伴随而来的是模型参数增加,更容易导致过拟合问题。二是网络结构变复杂时,计算量变大,所需的硬件资源也会快速增加,更糟糕的是,如果模型增加的表达能力没有得到高效利用的时候,比如最终学到的参数接近于0,那么就是对计算资源的一种浪费。针对上述问题,最好的解决办法就是使用稀疏连接的网络架构。大部分的机器学习系统都是通过卷积操作来实现稀疏性的,但是相对于前一层的局部感受野(local receptive field),卷积操作连接仍然属于密连接(dense connections)。与此同时,全连接的优势在于允许我们利用
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值