
深度学习
ifruoxi
这个作者很懒,什么都没留下…
展开
-
tensorflow 实现AlexNet(附lrn API介绍)
2012年,ALex提出了深度卷积网络模型AlexNet。AlexNet中包含了几个比较新的技术点,也首次在CNN中应用了RELU、Dropout、LRN等tricks。在AlexNet中包含了5个卷积层,其中3个卷积层后面连接了maxpool层,最后还有三个全连接层。AlexNet将LeNet的思想发扬光大,将CNN基本原理应用到了很深的网络中,其主要用到的创新点有(1) 使用RELU作为激活函数原创 2017-10-20 10:20:43 · 879 阅读 · 0 评论 -
Linux之cudnn升级方法
在安装tensorrt的时候,要求cudnn版本为7.3.1,而我之前安装的版本是5.1.10,因此需要对cudnn进行升级,升级方法很简单,而且不会对现有安装环境造成破坏,升级完之后tensorflow还可以正常使用经过搜索找了一个博客,因此记录下,便于后期再次查找。Linux之cudnn升级方法...转载 2019-06-11 20:14:42 · 1078 阅读 · 0 评论 -
Tensorflow_GPU_1
Tensorflow加速计算(多GPU和分布式)1 使用GPU基本操作在Tensorflow中可以通过tf.device()函数来手动指定运行操作的设备。对于CPU而言,在默认的情况下,即使的电脑有多个GPU,Tensorflow依然不会区分它们,都是用/cpu:0作为名称。对于GPU而言,则会使用/gpu:0,/gpu:1,…/gpu:nTensorflow提供了一个快捷的方式来查看运行设备: 在原创 2017-10-17 13:10:19 · 602 阅读 · 0 评论 -
卷积神经网络物体检测之感受野大小计算
近期再看RCNN等经典文章,又看到了“感受野”的概念。再正向传播中我们可以很方便地由前一个feature map通过卷积核,来计算下一个feature map的大小,但是很少去思考:感受野的尺寸(相当于卷积和大小)大小是如何计算的。首先给两个博客,写的很经典。 博客1博客2在RCNN中所说的感受野可以看作是一个“相对的”概念。 比如, 在RRCNN论文中有一段描述,Alexnet网络pool5输原创 2017-10-15 20:16:40 · 1913 阅读 · 0 评论 -
tensorflow实现 Inception V3
架构输入图像尺寸: 299x299x3 卷积1: 3x3/2 输入图像尺寸: 149x149x32 卷积2: 3x3/1 输入图像尺寸: 147x147x32 卷积3: 3x3/1 输入图像尺寸: 147x147x64 池化1: 3x3/2 输入图像尺寸: 73x73x64 卷积4: 3x3/1 输入图像尺寸: 71x71x80 卷积5: 3x3/2输入图像尺寸: 35x35x19原创 2017-10-22 17:55:25 · 4695 阅读 · 2 评论 -
Tensorflow实现VGGNet
Tensorflow实现VGGNet# 导入库import tensorflow as tf # 1.3import mathimport timefrom datetime import datetimeVGGNet中具有很多层,可以降每一个卷积层(参数初始化、卷积、relu)放在一个函数中,方便后面编写网络。def conv_op(input_op, name, kh, kw, n_ou原创 2017-10-20 14:12:51 · 643 阅读 · 0 评论 -
Inception V3
2015年12月,Rethinking the Inception Architecture for Computer Vision一文中提出了Inceoption V3模型。推荐博客: 《Rethinking the Inception Architecture for Computer Vision》笔记相比于Inception V2中,将5x5用两个3X3代替,在Inception V3网络原创 2017-10-21 15:06:03 · 1010 阅读 · 0 评论 -
Inception V2
2015年,Google在论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》提出了Inception V2模型。Inception V2学习了VGGNet,用两个3x3的卷积来代替5x5的大卷积(减少了参数,减轻了过拟合。) 另外文中还提出了著名的BN归一化原创 2017-10-21 13:19:23 · 815 阅读 · 0 评论 -
Inception V1
与VGGNet同年的冠军-Inception V1 不仅控制了计算量和参数量,同时分类性能也非常好。相比于AleXNet (8层)和VGGNet(19层),inception V1 具有22层。InceptionV1参数少但是效果好的原因有: (1) 去除了最后的全连接层,大大减少了参数量,并减轻了过拟合。用“全局平均池化层来代替”(该想法来源于 Network In Network) (2)精原创 2017-10-21 12:59:00 · 2145 阅读 · 0 评论 -
TensorRt教程系列(转)
记录下偶然发现的一个TensorRt教程博客。特此分享下TensorRT转载 2019-06-11 20:16:12 · 10199 阅读 · 2 评论