深度学习使用技巧
Kumuda
博客界的搬运工
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【原创】pycharm中 plt.imshow不显示图像
问题描述:在服务器上打开pycharm,importmatplotlib.pyplot as plt成功。但是在code中调用plt.imshow时代码报错“QXcbConnection: Failed to initialize XRandr”。解决过程:尝试了方法一:在importmatplotlib.pyplot as plt前加命令“ import matplotl...原创 2020-02-05 21:46:56 · 4073 阅读 · 0 评论 -
关于python 中的__future__模块(from __future__ import ***)
今天在学习目标检测的Python接口代码是,对于image检测的Python的第一行便出现了:from __future__ import print_function。经过查找,原来这是为了在老版本的Python中兼顾新特性的一种方法。具体地,如下:从python2.1开始以后, 当一个新的语言特性首次出现在发行版中时候, 如果该新特性与以前旧版本python不兼容, 则该特性将转载 2018-01-10 17:00:33 · 423 阅读 · 0 评论 -
三种循环神经网络(RNN)算法的实现(From scratch、Theano、Keras)
原文地址:http://blog.youkuaiyun.com/clayanddev/article/details/53947012 前言跳过废话,直接看正文经过一段时间的学习,我初步了解了RNN的基本原理和实现方法,在这里列出三种不同的RNN实现方法,以供参考。RNN的原理在网上能找到很多,我这里就不说了,说出来也不会比那些更好,这里先推荐一个RNN教程,讲的很好,四个po转载 2018-01-10 17:09:15 · 394 阅读 · 0 评论 -
python中的argparse模块(参数解析)
import argparseparse = argparse.ArgumentParser()parse.add_argument("a", help="params means")parse.add_argument("-C", "--gc", default="count")parse.add_argument("--ga", help="params means ga",d转载 2018-01-10 18:20:04 · 940 阅读 · 0 评论 -
在caffe中调用python层的问题和解决方案
之前很早以前在caffe中用过python写的loss layer,很久不用后在新的服务器上使用就各种“No module named WeightedEuclideanLossLayer2”(注:WeightedEuclideanLossLayer2.py是我的loss层 )这个问题的解决分成两大块。1 就WeightedEuclideanLossLayer2.py文件而言因为说“No modu...原创 2018-02-28 04:05:42 · 2744 阅读 · 0 评论 -
学习Tensorflow很好的教学材料
网页(文字):RNN LSTM的讲解 http://colah.github.io/posts/2015-08-Understanding-LSTMs/视频:周莫烦的一系列教学视频: https://www.youtube.com/channel/UCdyjiB5H8Pu7aDTNVXTTpcg以及他的网页:https://morvanzhou.github.io/ 持续更新中..........原创 2018-04-19 22:51:45 · 438 阅读 · 0 评论 -
【转】ReLU、LReLU、PReLU、CReLU、ELU、SELU
ReLULReLUPReLUCReLUELUSELUReLU tensorflow中:tf.nn.relu(features, name=None)LReLU(Leaky-ReLU) 其中aiai是固定的。ii表示不同的通道对应不同的aiai. tensorflow中:tf.nn.leaky_relu(features, alpha=0.2, name=None)PReLU 其中aiai是可以学...转载 2018-05-17 21:38:19 · 1986 阅读 · 0 评论 -
【原创】如何解决python进程被kill掉后GPU显存不释放的问题
今早kill掉服务器里两个python进程,结果发现GPU的显存并没有被释放。在网上查了各种方法,最后搞定。这是进程被kill掉后显存依旧被占的情景:莫慌~试试以下几步:1 重新开一个shell,然后输入: ps aux|grep user_name|grep python。所有该用户下的python程序就会显示出来(很多在用watch命令都不会显示的进程在这里可以看到);2 然后再一个个用kil...原创 2018-06-17 16:31:36 · 23986 阅读 · 12 评论 -
【转】迁移学习技巧以及如何更好的finetune 模型
原文地址:https://blog.youkuaiyun.com/u014381600/article/details/71511794最近在finetune model的时候遇到了点问题,开贴记录一下。也算填自己踩过的坑。 文章参考翻译自cs231n 其实我们常用的直接finetune pre-trained model就属于迁移学习(Transfer Learning)的一种。因为我们很少在训练一...转载 2018-07-31 18:41:18 · 369 阅读 · 0 评论 -
【转】ReLU上的花样
原文地址:https://blog.youkuaiyun.com/xinzhangyanxiang/article/details/51419768 ReLU上的花样CNN出现以来,感觉在各个地方,即便是非常小的地方都有点可以挖掘。比如ReLU。ReLU的有效性体现在两个方面:克服梯度消失的问题加快训练速度而这两个方面是相辅相成的,因为克服了梯度消失问题,所以训练才会快。ReLU的起...转载 2018-12-20 09:55:21 · 258 阅读 · 0 评论 -
【转】关于caffe 卷积层中group参数的应用
原文地址:https://blog.youkuaiyun.com/liyuan123zhouhui/article/details/70858472caffe Convolution层的convolution_param参数字典中有一个group参数,其意思是将对应的输入通道与输出通道数进行分组,比如输入数据大小为90x100x100x32 90是数据批大小 100x100是图像数据shape,32是通...转载 2018-12-23 19:17:10 · 1472 阅读 · 0 评论 -
如何理解深度学习中的卷积?
原文地址: http://www.yangqiu.cn/aicapital/2382000.html译自Tim Dettmers的Understanding Convolution in Deep Learning。有太多的公开课、教程在反复传颂卷积神经网络的好,却都没有讲什么是“卷积”,似乎默认所有读者都有相关基础。这篇外文既友好又深入,所以翻译了过来。文章高级部分通过流体力学量转载 2018-02-02 18:06:59 · 1490 阅读 · 0 评论 -
caffe常用层的参数设置说明
package caffe; 前面几个比较基础不介绍了,关于caffe blob一些介绍,还有一些数据输入的参数介绍就不介绍了这里酒介绍一些常用到的和比较新的层的参数设置参数。如需转载,请注明转载自:http://blog.youkuaiyun.com/mxs30443/article/details/53694695FillerParameter:转载 2018-01-09 01:03:41 · 825 阅读 · 0 评论 -
Caffe下卷积神经网络(CNN)中的一些特殊层
Batch Normalization意义: 网络训练时,用来加速收敛速度提醒: 已经将BN集成为一个layer了,使用时需要和scale层一起使用训练的时候,将BN层的use_global_stats设置为false; 测试的时候将use_global_stats设置为true,不然训练的时候会报“NAN”或者模型不收敛 – 师兄的经验,我还没试验过用法: 详见 残差神经网络转载 2018-01-09 00:57:08 · 857 阅读 · 0 评论 -
使用GraphViz画caffe的网络结构图
caffe的Python接口中有一个很不错的功能:画网络结构图,虽然画得并不好看,但可以给人一种直观的感受。一、准备 首先caffe的python接口当然是必备的了,还没有生成python接口的同学可以参照我的上一篇博客来生成。 然后是需要安装protobuf的python接口,可以参照这篇博客进行安装,安装过程比较简单,就不赘述了。 安装GraphViz:htt转载 2017-05-26 16:19:08 · 416 阅读 · 0 评论 -
caffe深度学习网络(.prototxt)在线可视化工具:Netscope Editor
网址:http://ethereon.github.io/netscope/#/editor 将.prototxt中的内容输入到文本框中,然后按shift+enter键,就会得到可视化网络,如:转载 2017-06-03 15:00:42 · 5293 阅读 · 0 评论 -
编译Caffe-Win错误集锦(持续更新)
原文地址:http://blog.sina.com.cn/s/blog_141f234870102w8is.html1.visual studio 2013 error C2371: 'int8_t' : redefinition; 引入的unistd.h文件里面重定义了int8_t ,用记事本 打开文件注销之。2. error C3转载 2017-06-03 17:46:03 · 1202 阅读 · 0 评论 -
caffe 改动后的重新编译
原文地址: http://blog.youkuaiyun.com/u010032054/article/details/53317180caffe 改动后要重新编译,之前不知道,走了弯路。1.更新了内核代码后,要在caffe-master的文件路径里执行如下步骤:make cleanmake all -j8make test -j8make runt转载 2017-06-09 13:43:18 · 1105 阅读 · 0 评论 -
caffe Resnet-50 finetune 所有代码+需要注意的地方
之前一直只专注于VGG-16,围绕VGG-16做了很多实验,心想其他网络也都差不多,这次实习时候又是分类问题,就心想换一个网络试试,因为数据有240W,比较大,就选Resnet吧,参数少,训练快,效果还好。看论文的结果Resnet-50和101、152差距也不算太大,于是选了最小的Resnet-50。 下面是论文中在ImageNet上的测试结果: 言归正转,说说要注意到点(我用的c转载 2017-06-08 20:02:41 · 7547 阅读 · 0 评论 -
ResNet-34 prototxt
train_val.prototxt[cpp] view plain copy print?name: "ResNet-34" layer { name: "data" type: "Data" top: "data" top: "label" include {转载 2017-06-08 19:56:31 · 2430 阅读 · 0 评论 -
Deep learning基于theano的keras学习笔记(1)-Sequential模型
《统计学习方法》中指出,机器学习的三个要素是模型,策略和优算法,这当然也适用于深度学习,而我个人觉得keras训练也是基于这三个要素的,先建立深度模型,然后选用策略(目标函数),采用优化器,编译和训练模型。Sequential模型,顾名思义,就是多个网络层的线性堆叠 建立模型有两种方式:一是向layer添加list的方式,二是通过.add()方式一层层添加(一个add为一层),具体可见转载 2018-01-10 22:27:59 · 329 阅读 · 0 评论 -
One by One [ 1 x 1 ] Convolution - counter-intuitively useful
One by One [ 1 x 1 ] Convolution - counter-intuitively usefulWhenever I discuss or show GoogleNet architecture, one question always comes up - "Why 1x1 convolution ? Is it not redundan转载 2018-01-05 21:15:53 · 871 阅读 · 0 评论 -
一文搞懂LSTM 网络
循环神经网络(RNN)人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想对电影里的每一个场景进行分类。传统的神经网络不能够基于前面的已分类场景来推断接下来的转载 2018-01-09 00:38:49 · 835 阅读 · 0 评论 -
深度学习:识别图片中的电话号码
自动识别图片中电话号码,也可以推广到识别字符串,英文等。---识别--->“18811610168”当然,背景会有干扰(自然环境),字体也更多变。要求:全对识别,人工修正的成本过高,如果有一位识别错误,人工修正还不如重新输入方便(人工输入可以支持语音识别的)。保证85%以上的数据是可以全对识别的,最好返回全对识别的概率。当然对于电话号码业务,根据识别的文本结转载 2018-01-09 00:49:41 · 9537 阅读 · 0 评论 -
Must Know Tips/Tricks in Deep Neural Networks (by Xiu-Shen Wei)
Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computational models that are composed of multiple processing layers to learn representations of data with multiple levels转载 2017-05-26 16:07:16 · 735 阅读 · 0 评论
分享