
tensorflow
just_sort
Acdream.
展开
-
对抗神经网络学习和实现(GAN)
一,GAN的原理介绍\quadGAN的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和D(Discriminator)。正如它的名字所暗示的那样,它们的功能分别是: ∙∙\bulletG是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。 ∙∙\bulletD是一个判别网络,判别一张图片是不是“真实的”。它的输入...原创 2018-03-06 09:46:55 · 48913 阅读 · 8 评论 -
Tensorflow实战10:Tensorflow实现Word2Vec
介绍\quadWord2Vec也称Word Emneddings,中文有很多叫法,比较普遍的是"词向量"或“词嵌入”。Word2Vec是一个可以将语言文字转化为向量形式表达(Vector Respresentations)的模型,我们先来看看为什么要把字词转为向量。图像,音频等数据天然可以编码并存储为稠密向量的形式,比如图片是像素点的稠密矩阵,音频可以转为声音信号的频谱数据。自然语言处理在Wor...原创 2019-08-08 15:59:24 · 1962 阅读 · 1 评论 -
Tensorflow 实战9:Tensoflow实现ResNet
介绍\quadResNet(Residual Neural Network)由微软亚洲研究院的Kaiming He等4名华人提出,通过使用Residual Unit成功训练152层深的神经网络,在ILLSVRC 2015比赛中获得了冠军,取得了3.57%的top-5错误率,同时参数量却比VGGNet低,效果非常突出。ResNet的结构可以极快的加速超深神经网络的训练,模型的准确率也会有非常大的提...原创 2019-02-17 13:03:12 · 548 阅读 · 0 评论 -
Tensorflow实战6:Tensorflow实现AlexNet
算法实现过程的详细介绍\quad首先需要介绍一下AlexNet,2012年Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,它可以算是LeNet的一种更宽更深的版本。AlexNet中包含了几个技术点,也首次在CNN中成功应用了ReLU,Dropout和LRN等Trick。同时AlexNet也使用了GPU进行运算加速,作者开源了他们在GPU上训练神经网络的C...原创 2019-01-29 22:34:16 · 403 阅读 · 0 评论 -
Tensorflow 实战8:Tensoflow实现Google Inception Net
介绍\quadGoogle Inception Net首次出现在ILSVRC 2014的比赛中(和VGGNet同年),原创 2019-02-05 14:24:25 · 398 阅读 · 0 评论 -
Tensorflow实战7:Tensorflow实现VGGNet
\quad首先介绍一下VGGNet,VGGNet是牛津大学计算机视觉组和Google DeepMind公司的研究员一起研发的深度卷积神经网络。原创 2019-02-01 17:29:45 · 387 阅读 · 0 评论 -
Tensorflow实战5:Tensorflow实现进阶的卷积网络(对CIFAR数据集进行分类)
算法实现过程的详细介绍卷积神经网路最强大的地方还是对于图像问题的处理,现在就来处理在CIFAR10数据集上进行分类的一个任务,关于CIFAR10数据集介绍和CIFAR10数据集下载,可以在网上查阅相关资料。载入一些常用库,比如Numpy和time,并载入Tensorflow Models中自动下载,读取CIFAR-10数据的类。其中下载的代码为:git clone https://git...原创 2019-01-26 22:53:46 · 413 阅读 · 0 评论 -
Tensorflow实战4:Tensorflow实现简单的卷积网络
算法实现过程的详细介绍这里主要讲如何用Tensorflow实现一个简单的卷积神经网络,使用的数据集为MNIST数据集,预期可以达到99.2%的准确率。这里使用2个卷积层加一个全连接层构建一个简单但是非常有代表性的卷积神经网络。载入MNIST数据集,并设置默认的Interactive Session。#2个卷积加一个全连接的神经网络from tensorflow.examples.tut...原创 2019-01-24 21:54:40 · 422 阅读 · 0 评论 -
Tensorflow实战1:Tensorflow实现Softmax Regression识别手写数字
实现过程的详细介绍对Minist数据进行加载,利用Tensorflow提供的封装函数from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data/", one_hot=True)查看一下mnist数据集的情况,可以发现训练集有55000个...原创 2019-01-22 23:05:58 · 326 阅读 · 0 评论 -
Tensorflow实战2:Tensorflow实现去噪自编码器
算法实现过程的详细介绍首先介绍一下自编码器,Hinton教授在Science发表了文章Reducing the dimensionality of data with neural networks,讲解使用自编码器进行降维的方法,自编码器就是可以使用自身的高阶特征编码自己。自编码器的输入节点和输出节点是一致的,但如果只是单纯的逐个复制输入节点则没有意义,所以我们可以加入几种限制:(1)如果限...原创 2019-01-23 22:11:24 · 1790 阅读 · 0 评论 -
Tensorflow实战3:Tensorflow实现多层感知机
算法实现过程的详细介绍之前在Tensorflow实战一种实现完整的Softmax Regression(没有隐含层),并在MNIST数据集种取得了大概92%的准确率。现在我们要给神经网络加上隐藏层,并使用减轻过拟合的Dropout,自适应学习速率的Adagrad,以及可以解决梯度弥散问题的激活函数ReLU。首先载入Tensorflow并加载MNIST数据集。创建一个Tensorflow默认的...原创 2019-01-24 21:13:56 · 348 阅读 · 0 评论 -
Tensorflow 学习笔记2: tf.nn.depthwise_conv2d()推导
参考博主:https://blog.youkuaiyun.com/mao_xiao_feng/article/details/78003476 首先介绍一下函数的参数列表:tf.nn.depthwise_conv2d(input,filter,strides,padding,rate=None,name=None,data_format=None)除去name参数用以指定该操作的name,dat...原创 2018-04-13 15:00:17 · 1027 阅读 · 3 评论