
深度学习
文章平均质量分 78
Colie-Li
这个作者很懒,什么都没留下…
展开
-
用于语义分割的全卷积网络 (fully convolutional networks for semantic segmentation)
摘要卷积网络在特征分层领域是非常强大的视觉模型。我们证明了经过端到端、像素到像素训练的卷积网络超过语义分割中最先进的技术。我们的核心观点是建立“全卷积”网络,输入任意尺寸,经过有效的推理和学习产生相应尺寸的输出。我们定义并指定全卷积网络的空间,解释它们在空间范围内dense prediction任务(预测每个像素所属的类别)和获取与先验模型联系的应用。我们改编当前的分类网络(AlexNet翻译 2017-08-12 22:19:30 · 7632 阅读 · 2 评论 -
Keras---序贯模型
快速开始序贯(Sequential)模型序贯模型是多个网络层的线性堆叠,也就是“一条路走到黑”。可以通过向Sequential模型传递一个layer的list来构造该模型:from keras.models import Sequentialfrom keras.layers import Dense, Activationmodel = Sequential([Den转载 2017-09-28 23:55:37 · 1131 阅读 · 0 评论 -
美国高通 Snapdragon Neural Processing Engine SDK (SNPE) 系列 (1):用户自定义层JNI实现
可能系列开篇都喜欢说说Snapdragon Neural Processing Engine SDK(SNPE)是个什么东西,我就简短说几句,然后直接简单粗暴直入主题。 Snapdragon Neural Processing Engine SDK是美国高通公司出品的神经网络处理引擎(SNPE),可运行于搭载了高通Zeroth机器智能平台的820芯片处理器,开发者可以在SNPE上原创 2017-09-11 21:17:36 · 14979 阅读 · 5 评论 -
美国高通 Snapdragon Neural Processing Engine SDK (SNPE) 系列 (2):支持的网络层
Layer TypeDescriptionCaffe EquivalentTensorFlow EquivalentCPUGPUDSPBatch normalization (+ Scaling)Batch normalization followed by scaling operation. Batch norm operation can be per原创 2017-09-11 21:58:54 · 2751 阅读 · 0 评论 -
tensorflow 卷积、反卷积形式的去噪自编码器
对于去噪自编码器,网上好多都是利用全连接神经网络进行构建,我自己写了一个卷积、反卷积形式的去噪自编码器,其中的参数调优如果有兴趣的话,可以自行修改查看结果。数据集我使用最简单的mnist:网络结构:mnist输入(28*28=784向量) => 28*28*1矩阵 => 卷积层1 => 14*14*64 => 卷积层2 => 7*7*64 => 卷积层3 =>原创 2017-08-24 15:01:47 · 9609 阅读 · 15 评论 -
将mnist原始图像转换为tfrecords格式
官方其实是给了mnist数据读取接口的,但还是自己实现一下,这样内部的处理机制就都明白了mnist数据集中包含测试集和训练集(训练+验证),每个集合中包含若干图片和一个标签文件:转tfrecords代码#! -*- coding: utf-8 -*-import tensorflow as tffrom PIL import Imageconfig =原创 2017-08-22 18:14:31 · 2651 阅读 · 0 评论 -
Multi-Scale Context Aggregation by Dilated Convolution 对空洞卷积(扩张卷积)、感受野的理解
dilated convolution是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。原创 2017-09-07 17:31:09 · 11059 阅读 · 6 评论 -
Tensorflow的反卷积(上采样)
文章出处:http://blog.youkuaiyun.com/mao_xiao_feng/article/details/71713358反卷积操作是卷积的反向如果你随时都记住上面强调的重点,那你基本就理解一大半了,接下来通过一些函数的介绍为大家强化这个观念conv2d_transpose(value, filter, output_shape, strides, paddi转载 2017-08-06 18:11:04 · 17176 阅读 · 2 评论 -
tensorflow中slim模块api介绍
最近需要使用slim模块,先把slim的介绍放在这,后续会进行整理github:https://github.com/tensorflow/tensorflow/edit/master/tensorflow/contrib/slim/README.mdTensorFlow-SlimTF-Slim is a lightweight library for defining, trai翻译 2017-08-29 20:13:35 · 66249 阅读 · 20 评论 -
将tensorflow网络模型(图+权值)保存为.pb文件,并从.pb文件中还原网络模型
工程结构如下:将网络模型(图+权值)保存为.pb文件 write.py# -*- coding: utf-8 -*-from __future__ import absolute_import, unicode_literalsfrom tensorflow.examples.tutorials.mnist import input_dataimport tensorfl原创 2017-08-22 13:43:49 · 13675 阅读 · 3 评论 -
python读写matlab的.m文件
做深度学习的项目时,原始图片一般会先转换成其他格式,方便学习框架直接读取,比如caffe的leveldb、lmdb,matlab的.m格式,tensorflow的tfrecords格式等。python读写tfrecords格式,请参照http://blog.youkuaiyun.com/guvcolie/article/details/77460494python读写matlab的.m格式也很简单,写原创 2017-09-03 23:35:06 · 13351 阅读 · 2 评论 -
tensorflow中tfrecords格式的读写
关于Tensorflow数据的读取,有三种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据(一次一喂)。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据(从文件流中自动读取)。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。原创 2017-08-21 21:07:41 · 1952 阅读 · 0 评论 -
tensorflow中指定GPU及GPU显存设置
查看机器上GPU情况命令: nvidia-smi功能:显示机器上gpu的情况命令: nvidia-smi -l功能:定时更新显示机器上gpu的情况其中左上侧有0、1、2、3的编号,表示GPU的编号,在后面指定GPU时需要使用这个编号。在终端执行程序时指定GPU CUDA_VISIBLE_DEVICES=1 python your_原创 2017-08-14 17:44:26 · 104595 阅读 · 5 评论 -
【TensorFlow】tf.nn.conv2d是怎样实现卷积的?
文章出处:http://blog.youkuaiyun.com/mao_xiao_feng/article/details/53444333tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要tf.nn.conv2d(input, filter, strides, paddi转载 2017-08-06 18:17:29 · 809 阅读 · 0 评论 -
利用卷积自编码器对图片进行降噪
文章出处: https://zhuanlan.zhihu.com/p/27902193前言这周工作太忙,本来想更把Attention tranlsation写出来,但一直抽不出时间,等后面有时间再来写。我们这周来看一个简单的自编码器实战代码,关于自编码器的理论介绍我就不详细介绍了,网上一搜一大把。最简单的自编码器就是通过一个encoder和decoder来对输入进行复现,例如我们将转载 2017-08-06 17:24:22 · 9691 阅读 · 0 评论 -
FCN8s 代码解析
FCN.py# -×- coding: utf-8 -*-from __future__ import print_functionimport tensorflow as tfimport numpy as npimport TensorflowUtils as utilsimport read_MITSceneParsingData as scene_parsing原创 2017-08-13 16:19:55 · 10135 阅读 · 14 评论 -
深度学习反向传播
文章出处: http://blog.youkuaiyun.com/han_xiaoyang/article/details/503218731. 引言问题描述与动机:大家都知道的,其实我们就是在给定的图像像素向量x和对应的函数f(x),然后我们希望能够计算f在x上的梯度(∇f(x))我们之所以想解决这个问题,是因为在神经网络中,f对应损失函数L,而输转载 2017-08-13 02:07:49 · 2283 阅读 · 0 评论 -
自然图像抠图的一种闭式解 (a closed-form solution to natual image matting)
摘要交互式数字抠图,基于有限的用户输入从图像中提取前景物体,是图像和视频处理中非常重要的任务。从计算机视觉角度,这个任务非常具有挑战性,因为它是一个病态问题,每个像素上都必须估计前景和背景的颜色,还有单通道颜色的前景不透明度(alpha磨砂)。当前的方法将估计严格限制在图像的一小部分,基于已知像素附近估计前景和背景颜色,或者用alpha估计反转前景和背景颜色迭代执行非线性估计。本文提供了自翻译 2017-08-12 22:16:26 · 4810 阅读 · 1 评论 -
Tensorflow 模型量化 (Quantizing deep convolutional networks for efficient inference: A whitepaper 译文)
最近Tensorflow官方发布了一份《Quantizing deep convolutional networks for efficient inference》白皮书,共36页,讲解了基于Tensorflow的模型量化的有关知识。由于最近也在学习模型量化这部分工作,所以计划对这份文档翻译一下,同时share给大家。由于工作时间所限,我尽量每天翻译一些,如果有误解的地方,也请大家批评指正。...翻译 2018-07-30 16:12:46 · 31489 阅读 · 12 评论