- 博客(17)
- 资源 (1)
- 收藏
- 关注
原创 YOLO V2解析
YOLO V2是YOLO系列的第二版,在YOLO V1的基础上加以改进,改善了YOLO V1定位不准的问题,又保证了检测的速度,可谓集准确性与速度于一身(YOLO V2获得了CVPR2017的最佳论文提名)。YOLO V2的原文提出了两个模型:YOLO V2和YOLO9000,本文主要着重YOLO V2,下面让我们一同走进YOLO V2的世界。Outlines:YOLO V2 vs V1;...
2018-09-24 00:03:25
4904
14
原创 YOLO V1解析
YOLO(You Only Look Once) 是可谓是第一个相对成功One-Stage物体检测,在2016年被提出,本着速度的优势一跃成为与RCNN系列并驾齐驱的物体检测框架。YOLO V1指标:YOLO V1 mAP和FPS对比:YOLO V1的速度和准确率在2016年时还是很“稳”的,所以很多重速度的系统,会优先考虑YOLO。我们也可以发现,YOLO V1不仅速度快,准确率...
2018-09-02 23:27:55
3767
1
原创 Python学习笔记
functools partial:from functools import partialdef add(a, b, c): return a + b + cFixA_Add = partial(add, 1)add(1, 2, 3)## 6FixA_Add(2, 3)## 6自定义partial函数:def partial(func, *part_args): de...
2018-06-29 11:21:14
541
原创 DetNet 解析
使用FPN等训练的缺点:1)传统的ResNet或者VGG的stride等于32,按照每次输入图片的尺度减少2来计算,有5个stage(P1-P5),而FPN中存在P6,RetinaNet中存在P6和P7,而P6和P7是没有被预训练过的。(然而P6和P7已经对任务很敏感了,还需要预训练么,会不会多余?)2)对于大物体的回归相对弱一些,在FPN等物体检测网络中,大物体是在比较深的特征图上预测(因为深的...
2018-06-11 01:27:45
15053
3
原创 ResNetV2:ResNet深度解析
ResNet残差网络,想必大家一定很熟悉了,那么先考考大家,下面(1)-(5)的结构哪个是我们常用的ResNet结构? 其中weight指conv层,BN指Batch Normalization层,ReLU指激活层,addition指相加; 根据ResNet的描述,似乎以上五组都符合,那么2016年ResNet原文是哪一个结构呢?以及其他四组结构也都work么?我们不禁有了这两个疑问,伴随着
2018-05-09 01:02:01
24620
9
原创 ResNet解析
ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。 下面我们从实用的角度去看看ResNet。1.ResNet意义随着...
2018-01-14 18:04:00
353117
99
原创 Fisher Information学习笔记
Fisher Infomation的意义Fisher Information 顾名思义,就是用来衡量样本数据的信息量的,通常我们有一组样本,我们在机器学习中需要估计出样本的分布,我们是利用样本所具有的信息量来估计参数的,样本中具有的信息量越多,估计的参数越准,样本的分布估计的就越接近真实分布,这里的信息量就是用Fisher Information来表示的。什么样本信息量比较大?我们用样本发生的概率来
2017-09-15 19:42:32
22608
10
原创 Softmax层解析
这里我们简单介绍一下Caffe是如何实现Softmax层的,通常我们使用的是SoftmaxWithLossLayer,这里我们仅仅讲讲Caffe的SoftmaxLayer定义输入 在Caffe的世界里,每一层的输入叫做Bottom,输出叫做Top,而Caffe的Forward就是通过Bottom计算Top的过程,而Backward这是通过Top_diff计算Bottom_diff的过程。我们
2017-07-18 21:40:01
4223
原创 ROI Pooling层解析
ROI Pooling的意义ROIs Pooling顾名思义,是Pooling层的一种,而且是针对RoIs的Pooling,他的特点是输入特征图尺寸不固定,但是输出特征图尺寸固定;什么是ROI呢?ROI是Region of Interest的简写,指的是在“特征图上的框”;1)在Fast RCNN中, RoI是指Selective Search完成后得到的“候选框”在特征图上的映射
2017-03-03 21:19:43
112327
29
原创 Batch Normalization Caffe版实现解析
建议先看论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,这样会对本文有更好的理解; 同时使用Batch Normalization的GoogLENet也被称为Inception v2;Batch Normalization Caffe版实现解析BatchN
2017-02-22 17:21:08
7150
原创 Make基础知识点科普
Makefile规则: target:prerequisites command 其中target为目标文件,prerequisites为生成目标文件所需要的依赖文件,command是make需要执行的命令; 注1:make并不管命令是怎么工作的,他只管执行所定义的命令;make会比较target和prerequisites文件的修改日期,如果prerequisites的日期新,则更新ta
2017-02-12 19:25:36
2769
原创 RPN 解析
RPN全称是Region Proposal Network,Region Proposal的中文意思是“区域选取”,也就是“提取候选框”的意思,所以RPN就是用来提取候选框的网络;1. RPN的意义RPN第一次出现在世人眼中是在Faster RCNN这个结构中,专门用来提取候选框,在RCNN和Fast RCNN等物体检测架构中,用来提取候选框的方法通常是Selective Se
2017-01-12 11:10:09
101519
107
原创 使用Torch nngraph实现LSTM
什么是RNN RNN:多层反馈RNN(Recurrent neural Network、循环神经网络)神经网络是一种节点定向连接成环的人工神经网络。这种网络的内部状态可以展示动态时序行为。不同于前馈神经网络的是,RNN可以利用它内部的记忆来处理任意时序的输入序列,这让它可以更容易处理如不分段的手写识别、语音识别等。——百度百科下面我们看看抽象出来的RNN的公式: ht=θϕ(ht−1)+θx
2016-01-29 23:17:01
8804
1
原创 Android Bitmap太大导致ImageView不显示的问题
今天做我们的智能相册的项目时,遇到了非常神奇的问题,当照片太大时,导致ImageView.setImageBitmap不显示,上网上搜了很多办法,感觉都不是那么靠谱,最后使用了简单粗暴的手段://Bitmap too large to be uploaded into a textureBitmap bm = BitmapFactory.decodeFile(imagePath);Display
2016-01-29 10:31:42
11125
原创 使用JNA,让java调用原生代码
JNA定义:JNA:java Native Access,是SUN公司开发的基于JNI的框架,JNI使得Java能够调用原生的c或者c++代码。JNA与JNI的区别:性能:JNA在性能上不如JNI,由于JNA是在JNI的基础上封装了一层。 移植性:JNA的可移植性要好于JNI,因为开发者不需要再编写作为代理的动态链接库。 使用:JNI使用native关键字,使用一个个java方法映射原生方法,利
2016-01-16 19:48:20
7814
原创 Torch实现ReQU,和梯度验证
重写函数我们使用torch实现我们自己的ReQU模块。在实现一个新的layer之前,我们必须了解,我们并非重写forward和backward方法,而是重写里面调用的其他方法。 1)重新updataOutput方法,从而实现forward方法。 2)重写updataGradInput方法实现部分backward,计算loss函数相对于layer输入的导数,dloss/dx, 根据loss函数相对
2016-01-10 23:39:37
5026
原创 Torch中optim的sgd(Stochastic gradient descent)方法的实现细节
Torch中optim的sgd(Stochastic gradient descent)方法的实现细节Overviewsgd的全称是Stochastic gradient descent,关于Stochastic gradient descent我们不在本文详述。 Stochastic gradient descent https://en.wikipedia.org/wiki/Stochast
2015-12-26 18:02:11
13105
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人