
深度学习
xjc864588399
这个作者很懒,什么都没留下…
展开
-
caffe 训练之学习率
今天,自己在用caffe训练alfw的pose数据集时,使用欧几里得loss回归,发现测试的每张图片经过训练的网络,得到的回归值几乎全都一样。刚开始以为数据错了,于是在caffe的data_layer层中将读入的值打印出来,发现没问题;继续将欧几里得loss层的两个bottom输入的值也打印出来,发现在经过几千次迭代后,验证集的预测值几乎都一样,一点点查原因。网络结构、数据都没问题,但是这个现象说原创 2017-01-04 20:44:12 · 3107 阅读 · 2 评论 -
ImageNet2017 周记之第三周
因为使用RFCN直接训练ImageNet的baselinemAP只有24%左右,太低,打乱自己的计划,之前那种网络结构都没有机会去在ImageNet上使用,先找这个问题。花了一周时间,从重新写imagenet.py,处理ImageNet的数据,到训练完,得到结果,花了四天,还是这么高。说明之前训练RFCN的ImageNet数据处理是没有问题的,但是为何如此低,难道是因为ImageNet的目标检测比原创 2017-07-05 11:38:04 · 802 阅读 · 0 评论 -
ImageNet2017 周记之第二周
因为跑一次ImageNet需要2天多的时间,所以一开始是在VOC上做修改网络结构的实验。在网络结构上主要尝试了以下实验:第一种,就是直接使用RFCN+ Resnet101 结构跑VOC,什么改动都没有,结果作为baseline。第二种,在RFCN的ps-roipooling层,加入pad_ratio,之所以要加pad_ratio,相当于起到增大了proposal对应原图的尺寸,比如pad_原创 2017-07-05 11:37:12 · 662 阅读 · 0 评论 -
ImageNet2017 周记之第一周
首先,是调研,自己之前使用CNN做的都是分类任务,对检测了解一些,但是了解的不多,所以看了许多论文和一些博客。按照CNN 做目标检测的时间发展顺序介绍。RCNN,首先使用selectivesearch得到许多候选框,然后将这些候选框resize到一个固定相同的大小,使用CNN 预训练的网络提取特征,每个特征都对应一个SVM 分类器,判别该类属于类别,使用一个线性脊回归器进行精修框的位置。特点是原创 2017-07-05 11:35:28 · 740 阅读 · 0 评论 -
tensorflow 1.0 安装
教程在tensorflow 的官网上,我是用的源码编译https://www.tensorflow.org/install/install_sources首先安装 Bazel也是源码编译https://bazel.build/versions/master/docs/install-compile-source.html在编译bazel之前把PATH加上JDK的二进制路径比如$原创 2017-05-09 16:52:56 · 1293 阅读 · 0 评论 -
50 行 PyTorch 代码搞定 GAN
最近,一篇非常火的报道,使用pytorch 加 50 行核心代码模拟 GAN 对抗神经网络,自己尝试走了一遍,并对源码提出自己的理解。原文链接如下 https://medium.com/@devnag/generative-adversarial-networks-gans-in-50-lines-of-code-pytorch-e81b79659e3f#.nr3akui9z cod原创 2017-02-21 18:11:19 · 4321 阅读 · 2 评论 -
安装torch7 深度学习框架
在centos7 上安装torch7,首先在github上下载, git clone https://github.com/torch/distro.git ~/torch --recursive 获取安装LuaJIT(C语言编写的Lua的解释器)和Torch所必需的依赖包然后,进入torch文件夹,打开并执行install-deps中的命令,因为我之前已经在服务器上配置好了caffe原创 2017-02-20 16:57:59 · 2533 阅读 · 0 评论 -
Keras 切换GPU
https://keras.io/getting-started/faq/ 查看Keras 官方文档If you are running on the TensorFlow backend, your code will automatically run on GPU if any available GPU is detected.If you are running on the原创 2017-02-18 14:46:17 · 2427 阅读 · 0 评论 -
深度学习之多任务训练
最近,做基于caffe的多任务学习,所以写下这篇博客如何修改网络使其支持多任务学习。 一般地,一个卷积神经网络只是对某一个特定的目标进行学习训练。其实,也可以使一个网络并行地对两个或两个以上的任务进行学习,网络参数共享,这样可以起到减少模型个数,并且使模型具有很好的泛化能力。 那么,应该如何对一个网络修改使其能够进行多任务学习呢,做法不是很复杂,比如对于 caffe里面的Alexne原创 2016-12-28 17:29:00 · 7211 阅读 · 16 评论 -
ImageNet2017 周记之第四周
距离截止日期还剩下一周,baseline还没有,但是已经找到问题所在。我把之前的VOC的prototxt换成coco的,然后使用class-aware的方式,训练。这样原先bbox输出的8个点,就变成了现在的804点,rfcn的8*7*7变为804*7*7,计算量无疑变大,训练速度自然也就变慢。由之前的1s2.5轮,变为现在1s1 轮。而batch是1,两块卡是2,也就是1s能够过两张图片,两个半原创 2017-07-05 11:38:54 · 504 阅读 · 0 评论