
deep learning
文章平均质量分 62
plane0654
天道酬勤
展开
-
network in network
首先文章作者把传统CNN网络看成一个广义的线性模型GLM(generalized linear model)后面跟一个非线性激活函数(现在多用ReLU),而假设特征能够被GLM抽象即线性可分,那么对它的抽象程度是不够的(level of abstraction is low),或者说我们要假设特征是线性可分的(这是个强假设)。如果我们用一个非线性的模型代替GLM,无疑会提高整个模型对特征的抽象程度原创 2016-06-12 20:45:51 · 637 阅读 · 0 评论 -
Dtection:PVA-net
摘要:这是一个轻量级的detection模型,基于faster RCNN框架改进,主要重新设计了feature extraction部分(因为其他RPN分计算量不大、ROI classification部分的全连接层可以用svd方法改进),设计总体原则是“less channels with more layers”。原创 2017-06-24 11:30:51 · 846 阅读 · 0 评论 -
R-FCN resnet50 训练自己的数据
原文链接:http://blog.youkuaiyun.com/sinat_30071459/article/details/53202977说明:本文假设你已经做好数据集,格式和VOC2007一致,并且Linux系统已经配置好caffe所需环境(博客里教程很多),下面是训练的一些修改。py-R-FCN源码下载地址:https://github.com/转载 2017-06-22 14:22:40 · 5196 阅读 · 1 评论 -
faster rcnn配置问题
1、出现问题:训练faster rcnn时出现如下报错:File "/py-faster-rcnn/tools/../lib/datasets/imdb.py", line 108, in append_flipped_images assert (boxes[:, 2] >= boxes[:, 0]).all()AssertionError2、问题分析:检查自己数据发现,左转载 2017-06-22 11:05:11 · 669 阅读 · 0 评论 -
faster rcnn代码阅读
1.rpn-data layer主要作用是对每个anchor生成label,targets(gt_boxes坐标),bbox_inside_weights,bbox_outside_weights四个信息。这个层的输入有3个,(1)经过3*3加1*1卷积后的feature map(rpn_cls_score),没怎么用到只用了feature map的长宽信息;(2)gt_boxes里面存放原创 2017-06-21 17:27:30 · 1489 阅读 · 0 评论 -
五个案例,三大心得,深度学习的实践应用之路
原文链接:http://geek.youkuaiyun.com/news/detail/202622这篇文章对深度学习在工程级别应用上遇到的问题进行了很好地总结,并且提出一些有建设性的解决方案,很有实际意义。当我们需要用深度学习处理现实问题时,除了相关的技术和数据,你还需要掌握一系列的小诀窍,并将这些技巧用在级联模型、智能增强、合理的评价标准、建立可重用的训练管道、有效推断与减转载 2017-06-19 16:38:37 · 17659 阅读 · 0 评论 -
Detection:faster rcnn
从ssd看过来。fast rcnn主要解决了proposal之间的特征共享,原先selective search在图像上产生的2000个proposal要分别输入分类网络里过一遍,不可避免的产生了巨大计算资源浪费。在fast rcnn中利用reception field,先将整个图片过网络,得到fm后不同proposal对应到fm上就得到各自的特征。这样计算瓶颈就到了selective sea原创 2017-05-09 16:46:30 · 574 阅读 · 0 评论 -
Detection:SSD(single shot multibox detecter)
ssd这篇感觉很工程,主要的工作我觉得有两个:1.从多层fm上提取bbox,相当于一个multi scale的操作。值得注意的是,首先越靠近bottom越底层的fm在细节表达上做得越好,高层的fm会学习出分类这种概括性的表达,原文中加上最高层的bbox甚至会比去掉这一层效果更差(当然可能是噪声);其次在fm上的bbox并不是严格去对应原图上的reception filed(再加上后面data原创 2017-04-24 11:48:27 · 797 阅读 · 0 评论 -
训练网络的一些trick(1):pre_train与逐层拷贝网络
最近做detection方面的工作,在实际训练方面做了一些尝试,这一篇主要记录对于网络pre_train的理解。首先说pre_train,目前几乎所有做detection的网络都会用到这个技巧,相比于ImageNet数据集里张百万甚至千万的图片量,detection数据集几万张的图片量实在有些少(Pascal VOC、COCO),单纯用这些图片去训练一个比较深的随机初始化的cnn然后得原创 2017-05-18 17:39:30 · 1858 阅读 · 1 评论 -
Detection:pvanet训练自己数据
pvanet训练自己数据转载 2017-05-18 16:17:25 · 2396 阅读 · 4 评论 -
Common causes of nans during training
原文 https://stackoverflow.com/questions/33962226/common-causes-of-nans-during-trainingGood question.I came across this phenomenon several times. Here are my observations:Gradient blo转载 2017-05-24 10:02:12 · 591 阅读 · 0 评论 -
Bounding box regression详解
原文地址:http://blog.youkuaiyun.com/u011534057/article/details/51235964Reference link:http://caffecn.cn/?/question/160Question:我只知道,输入检测到的box,回归的是检测到box中心点,以及box长和宽到标记的box的映射。看过rcnn的转载 2016-09-24 16:46:06 · 2030 阅读 · 0 评论 -
CNN中pooling层的作用
1.引入了位移不变性,更关注是否存在某些特征而不是特征具体的位置。比如最常见的max pooling,因为取一片区域的最大值,所以这个最大值在该区域内无论在哪,max-pooling之后都是它,相当于对微小位移的不变性。2.减小下一层输入大小,减小计算量和参数个数,这个作用是最直观的了。3. 获得定长输出。改变输出的维度。4. 防止过拟合或有可能会带来欠原创 2016-09-03 14:23:43 · 5575 阅读 · 0 评论 -
caffe代码阅读:layer类和net类
这两个类是caffe框架的基石,从名字上就看得出来,深度学习就是围绕这两个东西展开的,还是从代码去看具体实现。1.layerlayer类有五大种类,每个种类里又有详细按作用区分,但全是从一个基类Layer继承过来,下面是具体的五类Data LayersCommon LayersActivation / Neuron LayersLoss Layers原创 2016-08-22 10:26:24 · 637 阅读 · 0 评论 -
caffe代码阅读:SyncedMemory和Blob
1.SyncedMemory这个类SyncedMemory的作用是数据存储,在CPU和GPU上各有一块内存空间(大小为size_)。 enum SyncedHead { UNINITIALIZED, HEAD_AT_CPU, HEAD_AT_GPU, SYNCED };//用来表示内存分配状态,未分配、CPU已分配、GPU已分配、两原创 2016-08-16 10:08:08 · 372 阅读 · 0 评论 -
Going Deeper with Convolutions
googlenet提出最重要的一个概念就是inception,起源于network in network,在这里有两种理解方式,1.inception module结构的一种新的组织形式(a new level of organization in the form of the “Inception module”);2.直接解释为网络深度。为了加深网络深度,NIN中用了1*1con原创 2016-06-06 20:35:22 · 661 阅读 · 0 评论 -
tensorflow 中遇到的问题总结
tensorflow 中遇到的问题总结 1.TFRecordReader "OutOfRangeError (see above for traceback): RandomShuffleQueue '_1_shuffle_batch/random_shuffle_queue' is closed and has insufficient elements (requested 1, cu...原创 2018-07-27 14:45:19 · 926 阅读 · 0 评论