
深度学习
冰雪凌萱
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
caffe流程
首先从solver中读入并生成一个solver,然后根据solver的net路径生成一个net,net调用layer_factory循环生成每个层,最后根据读入module或是filler来初始化参数。从上面的流程可以知道layer_factory是循环生成每个层,.cpp文件也的确写了#if WITH_PYTHON_LAYER,然后有什么什么操作,比如储存python layer的pytho转载 2017-11-07 14:46:34 · 284 阅读 · 0 评论 -
Unknown layer type: Python
当用fast-rcnn训练自己的数据集时,遇到registry.count(type) == 1 (0 vs. 1) Unknown layer type: Python尝试了网上很多种解决方案,修改Makefile文件,修改Makefile.config文件,设置PYTHONPATH,问题都没有解决最后清理原来已经,make好的caffe框架与和其python的接口,重新make,出乎意原创 2017-11-07 16:42:52 · 1555 阅读 · 1 评论 -
Check failed: ShapeEquals(proto) shape mismatch (reshape not set)
在用fast rcnn训练自己的数据集的时候,出现了Check failed: ShapeEquals(proto) shape mismatch (reshape not set) 的问题。起初以为是图像尺寸的原因(所有的图像都是统一尺寸,但是是640*480的),后来在网上找解决方案的时候,看到有人说可能是由于调整了网络结构导致的。然后将预训练模型换成用imagenet预训练好的模型以后,原创 2017-11-08 16:43:52 · 1057 阅读 · 0 评论 -
用fast rcnn训练自己的数据集时遇到的问题索引问题
不知道是不是版本的原因,用fast rcnn训练自己的数据集时,好几次碰到了数据类型出错的问题(索引不是整型)。一是,minibatch.py中,_sample_rois(roidb, fg_rois_per_image, rois_per_image, num_classes)函数中, if fg_ins.size > 0: fg_inds = npr.choice(fg_inds, siz原创 2017-11-08 18:25:14 · 2700 阅读 · 0 评论 -
caffe中如何可视化cnn各层的输出
正如caffe的examples所提,CNN model并不是一个黑盒,caffe提供了工具来查看cnn各层的所有输出1.查看CNN各层的activations值的结构(即每一层的输出)代码如下:# 显示每一层for layer_name, blob in net.blobs.iteritems(): print layer_name + '\t' + str(b转载 2017-12-23 10:25:57 · 2655 阅读 · 0 评论 -
神经网络训练时,出现NaN loss
1、梯度爆炸原因:在学习过程中,梯度变得非常大,使得学习的过程偏离了正常的轨迹症状:观察输出日志(runtime log)中每次迭代的loss值,你会发现loss随着迭代有明显的增长,最后因为loss值太大以至于不能用浮点数去表示,所以变成了NaN。可采取的方法:1.降低学习率,比如solver.prototxt中的base_lr,降低一个数量级(至少)。如果在你的模型中有多个loss转载 2017-12-19 15:47:02 · 12542 阅读 · 1 评论 -
图像标注工具
Labeling Tool转载 2018-03-17 21:47:33 · 909 阅读 · 0 评论