- 博客(47)
- 资源 (10)
- 收藏
- 关注
原创 【TensorFlow】tf.nn.conv2d是怎样实现卷积的?
实验环境:tensorflow版本1.2.0,python2.7介绍惯例先展示函数:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:input: 指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, i
2017-09-16 16:30:44
24299
2
原创 【Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积?
实验环境:tensorflow版本1.2.0,python2.7介绍关于空洞卷积的理论可以查看以下链接,这里我们不详细讲理论:1.Long J, Shelhamer E, Darrell T, et al. Fully convolutional networks for semantic segmentation[C]. Computer Vision and Pattern Recognitio
2017-09-16 15:04:35
25136
13
原创 【Tensorflow】tf.nn.depthwise_conv2d如何实现深度卷积?
实验环境:tensorflow版本1.2.0,python2.7介绍depthwise_conv2d来源于深度可分离卷积:Xception: Deep Learning with Depthwise Separable Convolutionstf.nn.depthwise_conv2d(input,filter,strides,padding,rate=None,name=None,data_fo
2017-09-16 14:32:56
42320
5
原创 【Tensorflow】tf.nn.separable_conv2d如何实现深度可分卷积?
实验环境:tensorflow版本1.2.0,python2.7介绍tf.nn.separable_conv2d可以看做,深度卷积tf.nn.depthwise_conv2d的扩展,所以首先我们需要了解depthwise_conv2d,可以查看我的另一篇博客: 【Tensorflow】tf.nn.depthwise_conv2d如何实现深度卷积?tf.nn.separable_conv2d(inpu
2017-09-16 13:01:12
21276
2
原创 【Tensorflow】tf.nn.depthwise_conv2d如何实现深度卷积?
tensorflow版本1.2.0,python2.7环境depthwise_conv2d来源于深度可分离卷积Xception: Deep Learning with Depthwise Separable Convolutionstf.nn.depthwise_conv2d(input,filter,strides,padding,rate=None,name=Non
2017-09-11 23:10:03
4089
原创 【Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积?
tensorflow版本1.2.0,python2.7环境关于空洞卷积的理论可以查看以下链接,这里我们不详细讲理论:1.Long J, Shelhamer E, Darrell T, et al. Fully convolutional networks for semantic segmentation[C]. Computer Vision and Pattern Recognit
2017-09-10 21:22:57
6460
原创 官方教程:用Pytorch实现迁移学习
迁移学习官方教程翻译+搬运自:http://pytorch.org/tutorials/beginner/transfer_learning_tutorial.html#training-the-model前置阅读:PyTorch深度学习:60分钟入门(Translation) - 知乎专栏实际情况下,很少有人从头开始训练整个卷积网络(网络参数随机初始化),因为很难
2017-09-07 11:43:07
10695
3
原创 【Tensorflow】用tersorflow内置函数做图片预处理
本篇作为【Tensorflow】超大规模数据集解决方案的补充,介绍一下tersorflow内置函数对图片的预处理。前面的方法都是用skimage等辅助库来处理图像,因为我们都是在外部处理完所有的图像,然后再输入网络,以Placeholder的形式。但是当我们使用Tensorflow内部的Input pipeline的时候,图片一经读取,就已经转换成了Tensorflow内置的格式,这种格式下,
2017-07-19 19:39:23
8027
原创 【Tensorflow】超大规模数据集解决方案:通过线程来预取(下)
环境Tensorflow1.2,python2.7现在让我们用Tensorflow实现一个具体的Input pipeline,我们使用CoCo2014作为处理对象,网上应该可以下载到CoCo训练集,train2014这个文件。下载链接:http://msvocds.blob.core.windows.net/coco2014/train2014.zip一共13.5G,解压完
2017-07-18 21:21:55
5573
原创 【Tensorflow】超大规模数据集解决方案:通过线程来预取(上)
环境Tensorflow1.2(这是最新的一个版本),python2.7这是我重点要讲的解决方案,我怕篇幅过长,分成了两篇,上篇介绍一下预备的东西,下篇来进行实验一.Tensorflow中的队列机制队列和线程是Temsorflow中实现异步的重要工具。为什么要异步?用一个形象的例子来解释这个问题。可以把数据导入的过程看作io操作,在数据规模极大的情况下,io请求需要大量时间执行。同
2017-07-02 16:39:08
10678
原创 【Tensorflow】辅助工具篇——matplotlib介绍(下)
ok,最后一篇我们来讲如何对某一个具体的数据集来做可视化分析。现在我们要引入一个以matplotlib作为基础的更高级的api:Seaborn,Seaborn有什么用?简单地说,就是用更少的语句,画出更好看的图。
2017-06-26 16:35:25
2204
1
原创 【Tensorflow】怎样为你的网络预加工和打包训练数据?(二):小数据集的处理方案
实验环境:python2.7第二篇我们来讲一讲小数据集的处理方法,小数据集一般多以文本存储为主,csv是一种流行的数据格式,另外也有txt等。当然也会有.mat或者.npy这种经过处理的格式。一.处理csv格式数据集实验数据集是鸢尾花卉数据集iris,格式是.csv,需要的同学可以到这里下载为了工程需要我直接介绍读取该类型数据的最快方法,通过一些库,我们是可以用很少的步骤就读取
2017-06-25 14:53:05
3248
原创 【Tensorflow】辅助工具篇——matplotlib介绍(中)
一.进阶绘图等高线等高线图经常用来表示一个二元函数z=f(x,y),我们可以形象的用一张网格图上面的点的函数值来描述。#%matplotlib inlineimport matplotlib.pyplot as pltimport numpy as npdef f(x, y): return np.sin(x) ** 10 + np.cos(10 + y * x) *
2017-06-22 16:15:34
4060
原创 【Tensorflow】辅助工具篇——matplotlib介绍(上)
期待已久的一章!数据可视化,数据图表分析,paper画图神器,matplotlib登场了因为有太多可讲,我们分成几篇来详细介绍,如果你想发paper,学好这个,如果你要做工程,那更要学好这个,总的来说,可视化图表绘制工具是必须要熟练使用的。有人可能会说Tensorflow不是有tensorboard来训练可视化吗?tensorboard所记录的数据的数据对于我们分析是远远不够的,很多指标用
2017-06-18 16:51:46
7051
原创 【Tensorflow】辅助工具篇——tensorflow slim(TF-Slim)介绍
可能很多tensorflow的老版本玩家没见过这个东西,slim这个模块是在16年新推出的,其主要目的是来做所谓的“代码瘦身”。但事实上它已经成为我比较喜欢,甚至是比较常用的模块,github上面大部分tensorflow的工程都会涉及到它,不得不说,撇开Keras,TensorLayer,tfLearn这些个高级库不谈,光用tensorflow能不能写出简洁的代码?当然行,有slim就够了!
2017-06-18 12:44:22
59229
13
原创 【Tensorflow】怎样为你的网络预加工和打包训练数据?(一)
面对五花八门的数据集,各种各样的数据存储形式,刚新手入门的我们在处理这些情况的时候是否会手足无措?反正一路走来,我的经验告诉我,deep learning的实验阶段,数据准备和处理过程往往会让你碰一鼻子灰。明明知道如何搭建网络,还是完成不了实验,究其原因,是数据工程经验的不足。我打算做这个系列,主要是记录针对不同种类,格式的数据的处理方案。数据预处理的首篇,我为大家展示一种常见情形的处理方法
2017-06-16 13:35:00
3670
原创 【Tensorflow】辅助工具篇——scikit-image介绍
很多时候我们跑deep learning算法的难点不在于搭建网络,而是数据获取与处理,当你看到大量的数据却无从下手时该是怎样的心情!这几篇我将为大家介绍目前很多paper代码复现中比较流行的辅助工具首先我们简要介绍一下scikit-image这个扩展包:scikit-image (a.k.a. skimage) 是一个图像处理和计算机视觉的算法集合。当然提到图像不得不提opencv
2017-06-14 21:51:50
13880
1
原创 【TensorFlow】tf.nn.conv2d_transpose是怎样实现反卷积的?
三个月没更新了啊,回来更一发~~csdn上主要讲一些coding过程中遇到的函数,问题,解决方案。偏实践另外,如果你想看一些理论方面的东西,欢迎加我的知乎csdn私信几乎不看,有问题交流可以发邮箱:hzmaoxiaofeng@163.com或者知乎私信,看到我会第一时间回复各位之前的文章里有人和我提了参数位置的问题,非常感谢。之前我用的tensorflow版本是0.8,在1.0大改
2017-05-12 15:08:27
42016
22
原创 用tensorflow实现usps和mnist数据集的迁移学习
本程序环境:tensorflow+python,用到的库:numpy,os,Image,random。基于论文:《Deep Transfer Network: Unsupervised Domain Adaptation》前面我已经对这篇文章做过简单的导读:首先我们要用到两个数据集usps和mnist,它们都是用来完成手写数字识别任务的,以下提供两个数据集的下载链接mnist数
2017-02-09 12:07:14
10110
3
原创 【深度学习】论文导读:无监督域适应(Deep Transfer Network: Unsupervised Domain Adaptation)
一、Domain adaptation在开始介绍之前,首先我们需要知道Domain adaptation的概念。Domain adaptation,我在标题上把它称之为域适应,但是在文中我没有再翻译它,而是保持它的英文原意,这也有助于我们更好的理解它的概念。Domain adaptation的目标是在某一个训练集上训练的模型,可以应用到另一个相关但不相同的测试集上。对这个问题列
2017-01-14 15:27:45
22710
1
原创 【机器学习】covariate shift现象的解释
一、什么是covariate shift?在论文中经常碰到covariate shift这个词,网上相关的中文解释比较少你可能会在介绍深度学习Batch Normalization方法的论文到中看到covariate shift这个词,并且所有看过这篇论文的或者实际做过工程的人,都知道BN这种归一化手段很好用,可以避免covariate shift那么covariate shift
2017-01-10 22:10:20
36693
4
原创 【TensorFlow】tf.nn.local_response_normalization详解,lrn正则法如何计算?
local response normalization最早是由Krizhevsky和Hinton在关于ImageNet的论文里面使用的一种数据标准化方法,即使现在,也依然会有不少CNN网络会使用到这种正则手段,现在记录一下lrn方法的计算流程以及tensorflow的实现,方便后面查阅以上是这种归一手段的公式,其中a的上标指该层的第几个feature map,a的下标x,y表示featu
2016-12-06 16:12:53
13597
原创 【TensorFlow】tf.nn.max_pool实现池化操作
max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似有些地方可以从卷积去参考【TensorFlow】tf.nn.conv2d是怎样实现卷积的? tf.nn.max_pool(value, ksize, strides, padding, name=None)参数是四个,和卷积很类似:第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入
2016-12-04 14:28:39
76149
8
原创 【TensorFlow】tf.nn.conv2d是怎样实现卷积的?
tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第
2016-12-03 17:17:45
94426
4
原创 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)除去name参数用以指定该操作的name,与方法有关的
2016-11-28 21:46:29
120021
27
原创 【TensorFlow】tf.sparse_to_dense的用法
TensorFlow是一个很坑的东西,在没有session运行的时候,所有数据都看不到结果,很难去print而且TF还没有中文的API手册,很多东西很难体会在这里记录一下比较难理解的几个方法的用法,以便后面用到tf.sparse_to_dense(sparse_indices, output_shape, sparse_values, default_value, name=N
2016-11-27 20:37:32
33714
6
原创 【TensorFlow】tf.concat的用法
tf.concat是连接两个矩阵的操作tf.concat(concat_dim, values, name='concat')除去name参数用以指定该操作的name,与方法有关的一共两个参数:concat_dim:必须是一个数,表明在哪一维上连接 如果concat_dim是0,那么在某一个shape的第一个维度上连,对应到实际,就是叠放到列上t1 = [[1, 2
2016-11-27 20:00:10
107583
1
原创 【深度学习】论文导读:GoogLeNet模型,Inception结构网络简化(Going deeper with convolutions)
论文下载Going deeper with convolutionsgoogle在ILSVRC14比赛中获得冠军的一个模型。GoogLeNet, 一个22层的深度网络。GoogLeNet模型的参数量只是两年前该项赛事的冠军Krizhevsky参数量的1/12,大大降低了网络的复杂度,甚至还达到了比Krizhevsky更高的精度。此篇论文讨论的就是如何有效的控制computa
2016-11-26 14:23:16
15997
1
原创 【深度学习】论文导读:ELU激活函数的提出(FAST AND ACCURATE DEEP NETWORK LEARNING BY EXPONENTIAL LINEAR UNITS (ELUS))
FAST AND ACCURATE DEEP NETWORK LEARNING BY EXPONENTIAL LINEAR UNITS (ELUS)(2016,Djork-Arn´e Clevert, Thomas Unterthiner & Sepp Hochreiter)论文下载一、简介 ELU的表达式:四种激活函数(ELU,LReLU,ReLU,SReLU)比较图:
2016-11-20 17:19:53
41080
2
原创 【深度学习】论文导读:google的批正则方法(Batch Normalization: Accelerating Deep Network Training by Reducing...)
google2015年的论文,首次提出批正则方法,优化深度神经元网络的学习摘要在深度网络的训练中,每一层网络的输入都会因为前一层网络参数的变化导致其分布发生改变,这就要求我们必须使用一个很小的学习率和对参数很好的初始化,但是这么做会让训练过程变得慢而且复杂。作者把这种现象称作Internal Covariate Shift。通过Batch Normalization可以很好的解决这个问
2016-11-13 17:07:00
1979
原创 【深度学习】论文导读:图像识别中的深度残差网络(Deep Residual Learning for Image Recognition)
CVPR2016最佳论文
2016-11-10 22:24:54
4282
原创 反向传播算法的直观理解
一、反向传播的由来在我们开始DL的研究之前,需要把ANN—人工神经元网络以及bp算法做一个简单解释。关于ANN的结构,我不再多说,网上有大量的学习资料,主要就是搞清一些名词:输入层/输入神经元,输出层/输出神经元,隐层/隐层神经元,权值,偏置,激活函数接下来我们需要知道ANN是怎么训练的,假设ANN网络已经搭建好了,在所有应用问题中(不管是网络结构,训练手段如何变化)我们的目标
2016-11-05 21:59:22
49512
6
原创 我的Direct3D学习之路3:第一个3D绘图程序
之前已经详述过投影变换,这里不再赘述。之前我们一直是在窗口中绘制,使用了D3DFVF_XYZRHW格式的顶点,D3D是默认顶点经过了处理,直接绘制在窗口上现在我们用D3DFVF_XYZ格式来绘制,熟悉D3D对3D环境的处理过程打开\Samples\C++\Direct3D\Tutorials\Tut03_Matrices路径下的工程这个工程和上一个画三角形的工程相比其他
2016-10-12 13:47:30
5095
原创 我的Direct3D之路2:学习第一个三角形绘制程序以及一些注意点
打开你\Samples\C++\Direct3D\Tutorials\Tut02_Vertices路径下的工程,这就是微软给的官方绘图教程。一、窗口主程序程序有点乱,先看窗口主程序INT WINAPI wWinMain( HINSTANCE hInst, HINSTANCE, LPWSTR, INT ){ UNREFERENCED_PARAMETER( hIn
2016-10-09 18:32:39
1853
原创 Direct3D补充篇:表面缓冲区技术实现动画的流畅显示
本篇讲的是我们开始一些工程之前所需要掌握了解的东西。只要是补充篇基本都不涉及代码,只是对某些重要属性的分析和基础的普及。我会从多个方面去引入,刚入门的同学也能看明白。表面缓冲区是Direct3D中比较重要的一部分,在代码学习之前很有必要先了解一下。1、2部分是为了入门的同学准备的,如果已经理解了为什么要设置表面缓冲区,也可以跳过直接看3、4部分一、屏幕刷新率和FPS这两个词
2016-10-05 20:25:20
2477
原创 我的Direct3D之路1:旅途的开始
前言大家十一快乐!之前的VR学习篇也结束了,想了一想,偏应用层的东西,比如Unity3D引擎的使用或者各个平台交互的东西,以后可能涉及的会比较少了(当然不排除做项目的时候涉及到的可能),结合导师和实验室的研究方向,我以后会把重心放在机器学习,图形图像,计算机视觉这些领域,相对偏算法化,偏底层化一些。那么废话少说,谈谈我初识Direct3D的体会吧。对于游戏爱好者,D3D早有耳闻,但
2016-10-03 19:29:33
1034
原创 对于随机森林的通俗理解
一、决策树决策树是机器学习最基本的模型,在不考虑其他复杂情况下,我们可以用一句话来描述决策树:如果得分大于等于60分,那么你及格了。这是一个最最简单的决策树的模型,我们把及格和没及格分别附上标签,及格(1),没及格(0),那么得到的决策树是这样的但是我们几乎不会让计算机做这么简单的工作,我们把情况变得复杂一点引用别的文章的一个例子这是一张女孩对于不同条件的男性是
2016-10-03 15:15:18
100535
13
转载 使用Unity制作简单的宠物精灵GO(一)
目标这篇文章很简单,就是帮助你使用Unity API 调用设备的摄像头,这其实很简单(代码不超过15行),但是克森还是会很详细的介绍。首先创建一个 Unity 项目工程,命名由你来定:点击创建工程后,在 Hierarchy 面板下创建一个平面(Plane),然后设置一下该平面的信息,如下所示:接下来,设计一下 Assete 文件夹的层级关
2016-10-01 15:23:41
3423
原创 写给VR手游开发小白的教程:(八)最终篇:Cardboard如何实现沉浸式VR体验之头部跟踪和Gaze的实现
对于Cardboard的介绍终于到了最终篇,感谢一路走来的你们!!文章开头先打一个广告,我会在不久开始Gear VR的研究,Gear VR是三星为旗下手机定制的一款VR眼镜,也是时下比较流行的手机VR环境,Gear VR的开发依然需要我们的老朋友Unity3D(Unity在手游界的地位果然是不可动摇的),硬件方面,富余并且手里有S6/S7或者note7的同学可以入手Gear VR,总体来说性能
2016-09-26 11:26:50
5409
转载 Unity中简单的优化物理系统
目标这个篇文章的主要目标是给予你一个关于在Unity中简单的优化物理系统我的游戏物理系统有什么错误吗?怎么去处理游戏物理系统?Unity 物理系统有什么缺陷吗?Unity 是怎样处理物理系统的?我在 Unity 物理系统上做了什么控制?在我开始使用游戏物理系统之前
2016-09-21 10:38:11
13384
1
Deep Transfer Network: Unsupervised Domain Adaptation
2017-02-09
Deep Residual Learning for Image Recognition
2016-11-20
Batch Normalization: Accelerating Deep Network Training by Reducing
2016-11-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人