
深度学习'
文章平均质量分 55
无奈的小心酸
everything is a causal link
QQ:2531817472
展开
-
HED测试单张图片示例
论文全名:[2015](HED_FCN)Holistically-Nested Edge Detection.pdf代码下载地址:https://github.com/s9xie/hed附上一篇个人认为写的比较好的论文笔记:http://blog.youkuaiyun.com/u012905422/article/details/52782615关于HED的训练在另一篇博客中已经讲过,原创 2017-04-13 10:14:21 · 7337 阅读 · 17 评论 -
caffe拷贝权重之Check failed: param_size <= num_param_blobs (2 vs. 1)
caffe程序时候做了一个拷贝权重的操作,报错具体为:F1128 17:26:07.834883 3054 net.cpp:141] Check failed: param_size 我的convolution1的设置为layer { name: "Convolution1" type: "Convolution" bottom: "elt-da原创 2017-11-28 17:35:08 · 2309 阅读 · 0 评论 -
pip 国内源提速
转自:http://blog.youkuaiyun.com/jyfu2_12/article/details/76208966经常在使用Python的时候需要安装各种模块,而pip是很强大的模块安装工具,但是由于国外官方默认pip访问速度慢,经常被墙,导致无法安装,所以我们最好是将自己使用的pip源更换一下,这样就能解决被墙导致的装不上库的烦恼。 网上有很多可用的国内镜像源转载 2017-11-06 09:43:30 · 538 阅读 · 0 评论 -
hdf5文件读取与写入
转自:http://blog.youkuaiyun.com/s151506879/article/details/52073392例:%生成训练数据;clear;close all;%% settingsfolder = 'Train';savepath = 'train.h5';size_input = 33;%输入图像矩阵size_label = 21;转载 2017-11-23 14:54:57 · 6303 阅读 · 5 评论 -
caffe softmax layer
转自:http://blog.youkuaiyun.com/shuzfan/article/details/51460895Loss Functionsoftmax_loss的计算包含2步:(1)计算softmax归一化概率(2)计算损失这里以batchsize=1的2分类为例: 设最后一层的输出为[1.2 0.8],减去最大值后为[0转载 2017-12-05 10:39:49 · 458 阅读 · 0 评论 -
论文见解之RCF:Richer Convolutional Features for Edge Detection
论文名:Richer Convolutional Features for Edge Detectioncode:https://github.com/yun-liu/rcf这是cvpr2017的一篇文章,方向是边界分割,在这个语义分割横行的领域,边界分割的论文已经不多了,不过这篇论文着实不错好的,话不多说,看看论文是怎么做的其实这篇论文算是HED的加强版,原创 2017-12-18 10:37:39 · 9675 阅读 · 0 评论 -
FractalNet: Ultra-Deep Neural Networks without Residuals
转自:http://blog.youkuaiyun.com/langb2014/article/details/68068127题目】分形网络:无残差的极深神经网络(FractalNet: Ultra-Deep Neural Networks without Residuals)【作者】芝加哥大学 Gustav Larsson,丰田工大学芝加哥分校 Michae转载 2017-12-18 10:42:36 · 434 阅读 · 0 评论 -
《Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network》阅读笔记
转自:http://m.blog.youkuaiyun.com/Aaron_wei/article/details/76862038本文提出了一种利用生成对抗网络(GAN)对低分辨率单一图像进行超分辨率(super-resolution)的网络结构,作为GAN的一种重要应用,很值得去学习研究。阅读原文点这里。Abstract尽管我们已经利用更快更深的卷积转载 2017-12-18 10:48:12 · 475 阅读 · 0 评论 -
caffe 保存训练的loss
命令为./build/tools/caffe train --solver examples/DPPN/solver_dct_pixel.prototxt 2>&1| tee mylog/caffe.log首先cd进入caffe根目录执行该命令,examples/DPPN/solver_dct_pixel.prototxt 为执行文件路径mylog/ca原创 2018-01-22 09:42:25 · 591 阅读 · 0 评论 -
深度学习 ycbcr的运用
深度学习中,如果针对图像进行处理,通常采用ycbcr对彩色图像进行处理,将得到的结果利用神经网络对Y通道进行神经网络处理,得到处理后的灰色图像,再将彩色信息进行填充,即可得到彩色结果图像1.利用ycbcr对彩色图像进行处理,输出结果的Y通道image=imread('baboon.jpg');image = rgb2ycbcr(image);image1 = im原创 2018-01-22 10:44:27 · 2603 阅读 · 2 评论 -
caffe中bn层与scale层
转自:https://zhidao.baidu.com/question/621624946902864092.htmlcaffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它其实做了两件事。1) 输入归一化 x_norm = (x-u)/std, 其中u和std是个累计计算的均值和方差。2)y=alpha×x_norm +转载 2017-08-14 14:29:16 · 17726 阅读 · 1 评论 -
循环神经网络RNN介绍
转自:http://blog.youkuaiyun.com/heyongluoyao8/article/details/48636251循环神经网络(RNN, Recurrent Neural Networks)介绍 这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part转载 2018-01-24 10:06:16 · 10505 阅读 · 0 评论 -
论文解读之Perceptual Losses for Real-Time Style Transfer and Super-Resolution
论文名称:Perceptual Losses for Real-Time Style Transfer and Super-Resolution来源: CVPR 2017这是一篇提出一种创新loss处理方式的论文,用来证明结果的实验有2个,分别为图像风格转换和超分辨率,本文中只针对超分辨率进行比较首先,作者提出,超分辨率、图像风格转换、去噪其实都可以归类为 i原创 2018-02-01 16:38:12 · 2842 阅读 · 0 评论 -
FCN网络训练 SIFTFLOW数据集
论文全名:Fully Convolutional Networks for Semantic Segmentation全卷积神经网络 FCN代码运行详解:运行平台:Ubuntu 14.04 + cudnn7步骤1.代码准备:下载新版caffe: https://github.com/BVLC/caffe下载fcn代码: https://gith原创 2017-04-19 11:12:19 · 14558 阅读 · 57 评论 -
caffe 如何让反向传播不更新某些层
caffe程序中,有时候我们不需要更新某些层,那么我们该怎么做呢?假设共有5个卷积层,conv1,conv2,conv3,conv4,conv5为了方便,假设只有这5个卷积层,没有pool层与relu层卷积层的定义为layer{ name:"conv1" type:"Convolution" bottom: "data" top: "conv1"原创 2017-11-02 11:26:28 · 1936 阅读 · 1 评论 -
个人解析---caffe elewise层
Eltwise层的操作有三个:product(点乘), sum(相加减) 和 max(取大值),其中sum是默认操作。elewise层含有参数coeff,虽然经常省略不写如果实现A-B,则可采用以下方式:layer { name: "eltwise_layer" type: "Eltwise" bottom: "A" bottom: "B" top原创 2017-10-24 08:55:08 · 2896 阅读 · 0 评论 -
caffe-windows直接安装版---编译后的Release
在实验室电脑上完成编译 在个人笔记本上采取博客中所写方法直接添加编译后的Release已经成功实现matcaffe的使用 特此分享编译后的matcaffe如果需要使用cpu版本的matcaffe 可直接下载 无需用VS编译在此分享下自己编译后的 matcaffe的Release 无GPU http://pan.baidu.com/s/1qYnZfnY如果需要使用m原创 2017-06-08 14:43:13 · 4365 阅读 · 12 评论 -
VDSR超分辨率
论文全名:Accurate Image Super-Resolution Using Very Deep Convolutional Networks下载地址:https://pan.baidu.com/s/1ge2pCWFcode:https://github.com/huangzehao/caffe-vdsr该论文利用残差学习,加深网络结构(20层),在图像的超分辨原创 2017-07-03 17:34:51 · 28147 阅读 · 38 评论 -
caffe中各种loss函数
转自:http://www.mamicode.com/info-detail-594961.htmlCaffe中的损失函数解析导言在有监督的机器学习中,需要有标签数据,与此同时,也需要有对应的损失函数(Loss Function)。在Caffe中,目前已经实现了一些损失函数,包括最常见的L2损失函数,对比损失函数,信息增益损失函数等等。在这里做一个笔记,归纳转载 2017-08-01 10:14:30 · 2074 阅读 · 0 评论 -
caffe中参数介绍
转自http://www.mamicode.com/info-detail-1368127.htmlcaffe 参数介绍solver.prototxtnet: "models/bvlc_alexnet/train_val.prototxt" test_iter: 1000 # test_interval: 1000 # base_lr: 0.01转载 2017-08-14 14:23:14 · 357 阅读 · 0 评论 -
caffe中各层的作用
转自:http://www.cnblogs.com/yinheyi/p/6070213.htmlcaffe中各层的作用:关于caffe中的solver:cafffe中的sover的方法都有:Stochastic Gradient Descent (type: "SGD"),AdaDelta (type: "AdaDelta"),Ada转载 2017-08-07 14:10:58 · 955 阅读 · 0 评论 -
论文见解之SRN: Side-output Residual Network for Object Symmetry Detection in the Wild
论文名称:SRN: Side-output Residual Network for Object Symmetry Detection in the Wild ----CVPR 2017code地址:https://github.com/KevinKecc/SRN论文概述:一篇做图像对称性骨骼的论文,与以往不同的是,此篇论文中采用了自定义的benchmark,基于HED进行网络改造,原创 2017-08-31 11:02:43 · 4673 阅读 · 0 评论 -
论文解读之MemNet: A Persistent Memory Network for Image Restoration
论文名称:MemNet: A Persistent Memory Network for Image Restoration作用领域:图像修复(去噪,超分辨率)code:https://github.com/tyshiwo/MemNet概述:这是一篇ICCV2017的文章,作者是DRRN(CVPR2017)的那一帮人,该篇论文中提出一个延长记忆的模型,传统的神经网络基本上都原创 2017-09-19 14:12:41 · 10863 阅读 · 6 评论 -
caffe 中的一些参数介绍
转自: http://blog.youkuaiyun.com/cyh_24/article/details/51537709caffe 参数介绍solver.prototxtnet: "models/bvlc_alexnet/train_val.prototxt" test_iter: 1000 # test_interval: 1000 # base转载 2017-09-12 09:41:02 · 360 阅读 · 0 评论 -
caffe编译:fatal error: pyconfig.h: No such file or directory #include "pyconfig.h"
在网上搜了相关解决方法其中 ,有的方法不可行,有的方法不全面,经过个人尝试,可以采用以下完备方案:首先尝试,修改Makefile.config,将PYTHON_INCLUDE := $(ANACONDA_HOME)/include \# $(ANACONDA_HOME)/include/python2.7 \#原创 2017-09-12 20:16:45 · 22093 阅读 · 1 评论 -
caffe训练中断后如何承接上次继续训练
windows命令行模式下可以:.build/tools/caffe train --solver examples/DMAM/DMAM_solver.prototxt --snapshot=examples/DMAM/Model/_iter_190000.solverstatelinux下可以python solver.py --snapshot=XXXXX.solverst原创 2017-09-29 09:44:16 · 5543 阅读 · 3 评论 -
caffe:Failed to parse NetParameter file
原因: 网络结构的文件,通常为trainval.prototxr文件中存在语法错误,例如符号缺失等语法错误我的错误原因在于,在定义layer时候,少了个引号原创 2017-10-27 08:31:27 · 11940 阅读 · 0 评论 -
论文解析之 Wide Residual Networks
论文名: Wide Residual Networkscode: https://github.com/szagoruyko/wide-residual-networks引言: 随着研究的深入,如今的神经网络发展趋向于更深,更瘦,作者提出一个疑问,神经网络是否越瘦越深则结果越好? 还是说只要能保证参数的数量,训练一个更胖更浅的网络 是否可行?网络结构:其原创 2017-11-08 09:41:38 · 7165 阅读 · 3 评论 -
论文解析之Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Co
论文名: Image Restoration Using Very Deep Convolutional Encoder-Decoder Networkwith Symmetric Skip Connection ------------------2016 NIPS论文针对图像修复方向,提出了一种跳跃链接的残差网络,总体来说论文结构简单,不过有点意思,所以简单说一下:原创 2017-10-30 16:52:58 · 5116 阅读 · 2 评论 -
论文解读之 One-to-Many Network for Visually Pleasing Compression Artifacts Reduction
论文题目:One-to-Many Network for Visually Pleasing Compression Artifacts Reduction这是一篇针对图像压缩恢复的论文,近来的研究大多采用one-to-one的映射模式,利用逐像素的L2 loss进行优化训练,得到的结果往往过于平滑,丢失了较多的图像细节纹理信息,即便得到的结果拥有较高的PSNR,但是在视觉效果上不能令人满意,因此...原创 2018-02-28 12:47:20 · 1079 阅读 · 0 评论