卷积神经网络
陈路飞
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
cs231n笔记(7)——图像处理中的卷积
一.卷积1.数学意义上的卷积:数学意义上的卷积要比图像中的难理解一下,可以参考下面俩个知乎上排名比较高的答案http://blog.youkuaiyun.com/bitcarmanlee/article/details/54729807https://www.zhihu.com/question/54677157/answer/1412452972.图像处理意义上的原创 2017-12-20 14:32:33 · 305 阅读 · 0 评论 -
cs231n笔记(11++)--faster-rcnn 中 RPN与Fast R-CNN特征共享详细过程
RPN与Fast R-CNN特征共享详细过程总结:一句话:训练rpn时保持与fast-rcnn共享的卷基层参数不变,fine-tune其它层;反过来也是保持共享卷基层参数不变。Faster-R-CNN算法由两大模块组成:1.PRN候选框提取模块;2.Fast R-CNN检测模块。我们已经描述了如何为生成区域建议训练网络,而没有考虑基于区域的目标检测CNN如何利用这些建议框...原创 2019-03-20 16:17:41 · 2208 阅读 · 2 评论 -
SSD 速度性能分析及anchor的选择
SSD最大特点是速度快1. 因为是end to end 的 网络,没有其他冗余机构2. anchor 是在大格上(8x8),每个格子有5中尺寸,整体anchor比Faster-RCNN中少很多3. 4-3,7,8-2,9-2,10-2,11层 5个层都做多尺度回归,为了改善小目标检测效果不佳4. 整个网络是框回归的思想generate anchor/原文中叫 def...原创 2019-03-20 17:02:59 · 3842 阅读 · 0 评论 -
LSTM的理解
[译] 理解 LSTM(Long Short-Term Memory, LSTM) 网络本文译自Christopher Olah 的博文Recurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思...转载 2019-03-18 00:02:09 · 382 阅读 · 0 评论 -
Batch Normalization的理解
莫凡:https://zhuanlan.zhihu.com/p/24810318言有三:https://www.zhihu.com/question/38102762原创 2019-06-10 16:50:07 · 181 阅读 · 0 评论 -
DenseNet的理解
论文:Densely Connected Convolutional Networks论文链接:https://arxiv.org/pdf/1608.06993.pdf代码的github链接:https://github.com/liuzhuang13/DenseNetMXNet版本代码(有ImageNet预训练模型): https://github.com/miraclewkf/Dense...转载 2019-06-27 13:24:02 · 556 阅读 · 0 评论 -
PSP-Net的理解(多尺度特征融合分割)
Pyramid Scene Parsing Network收录:CVPR 2017 (IEEE Conference on Computer Vision and Pattern Recognition)原文地址: PSPNet代码: pspnet-github Keras tensorflow效果图:markAbstract本文提出的金字塔池化...转载 2019-07-03 16:00:49 · 9085 阅读 · 0 评论 -
双线性插值的理解
双线性插值不仅可以resize图片(解决最近邻锯齿状问题),还可以代替反卷积(本质也是resize)。记录下原理:双线性插值 假设源图像大小为mxn,目标图像为axb。那么两幅图像的边长比分别为:m/a和n/b。注意,通常这个比例不是整数,编程存储的时候要用浮点型。目标图像的第(i,j)个像素点(i行j列)可以通过边长比对应回源图像。其对应坐标为(i*m/a,j*n/b)。显...原创 2019-07-05 11:50:58 · 2194 阅读 · 0 评论 -
GoogLenet Inception v1-v4的理解
简单来说:v1:多尺度融合v2:卷积分解,俩个3x3代替5x5v3:1xn+nx1代替nxn进一步减少参数v4:加入残差思想【问题来了】什么是Inception呢?Inception历经了V1、V2、V3、V4等多个版本的发展,不断趋于完善,下面一一进行介绍一、Inception V1通过设计一个稀疏网络结构,但是能够产生稠密的数据,既能增加神经...原创 2019-08-21 11:53:38 · 567 阅读 · 0 评论 -
cs231n笔记(11+)--faster-rcnn中,对RPN的理解
2017年05月28日 00:45:55 美利坚节度使 阅读数:20487更多个人分类: 深度学习版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.youkuaiyun.com/ying86615791/article/details/72788414 原文中rcnn部分的截图 图片来自网上,黑色是滑动窗口的区域,就是上图的红色区域的s...转载 2018-09-17 16:25:35 · 355 阅读 · 0 评论 -
cs231n笔记(10)--fastRCNN
整体训练框架大致为:1.与R-CNN一样用Selective Search方法生成2000个建议矿框(proposals)2.将整张图片直接输入CNN中,进行特征提取,得到feature map3.把之前生成的2000个建议框映射到刚刚CNN提取的最后一层feature map 上也就是说,与R-CNN最大的区别是fast R-CNN先进行特征提取,后映射2000个建议框(R-CN...原创 2018-04-14 16:30:11 · 296 阅读 · 0 评论 -
cs231n笔记(8+)——全连接层
在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量,这是怎么来的呢?目的何在呢?举个例子:最后的两列小圆球就是两个全连接层,在最后一层卷积结束后,进行了最后一次池化,输出了20个12*12的图像,然后通过了一个全连接层变成了1*100的向量。这是怎么做到的呢,其实就是有20*100个12*12的卷积核卷积出来的转载 2017-12-22 23:42:37 · 388 阅读 · 0 评论 -
cs231n笔记(8++)——扔掉层(drop)
简单来说就是将一些神经元随机失活,防止过拟合。具体理解:Dropout是指在模型训练时随机让网络某些隐含层节点的权重不工作,不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了(有点抽象,具体实现看后面的实验部分)。 按照hinton的文章,他使用Dropout时训练阶段和测试阶段做了如原创 2017-12-23 16:12:51 · 691 阅读 · 0 评论 -
cs231n笔记(9+)——非极大值抑制
在解释非极大值抑制前先解释一下IoU。如下图所示IoU即表示(A∩B)/(A∪B),即AB共同的区域面积占AB总共的面积的比例:在RCNN网络完成到第4步(使用回归器精修候选框)之后,获得2000×20维矩阵表示每个建议框是某个物体类别的得分情况,此时会遇到下图所示情况,同一个车辆目标会被多个建议框包围,这时需要非极大值抑制操作去除得分较低的候选框以减少重叠框。 具体怎么做呢? ① 对2000×2...原创 2017-12-23 22:21:53 · 583 阅读 · 0 评论 -
cs231n笔记(9)--目标识别RCNN
一.简介cnn网络主要用于识别图片并将图片分类,但如果想把识别出来的样本标识出来就需要用到RCNN网络 rcnn主要作用就是用于目标识别(分类+标注) 二.具体流程 RCNN算法分为4个步骤 - (1)一张图像生成2000个候选区域 - (2)对每个候选区域,使用深度网络提取特征 - (3)特征送入每一类的SVM 分类器,判别是否属于该类 - (4)使用...原创 2017-12-23 14:27:40 · 615 阅读 · 0 评论 -
cs231n笔记(8)--卷积神经网络CNN
一 .卷积神经网络之层级结构 cs231n课程里给出了卷积神经网络各个层级结构,如下图上图中CNN要做的事情是:给定一张图片,是车还是马未知,是什么车也未知,现在需要模型判断这张图片里具体是一个什么东西,总之输出一个结果:如果是车 那是什么车 所以最左边是数据输入层,对数据做一些处理,比如去均值(把输入数据各个维度都中心化为0,避免数据过多原创 2017-12-22 17:26:33 · 590 阅读 · 0 评论 -
faster RCNN 前5层卷积层+RPN+代码
【首先】:大家应该要了解卷积神经网络的连接方式,卷积核的维度,反向传播时是如何灵活的插入一层;这里我推荐一份资料,真是写的非常清晰,就是MatConvet的用户手册,这个框架底层借用的是caffe的算法,所以他们的数据结构,网络层的连接方式都是一样的;建议读者看看,很快的;下载链接:点击打开链接【前面5层】:作者RPN网络前面的5层借用的是ZF网络,这个网络的结构图我截个图放在下面转载 2017-12-29 18:15:08 · 1489 阅读 · 1 评论 -
cs231n笔记(11)--fasterRCNN
Faster RCNN 是RCNN的改进:http://blog.youkuaiyun.com/chenlufei_i/article/details/78879783Faster R-CNN可以简单看作使用用RPN(Region Proposal Network区域生成网络)和Fast-RCNN组合而成,用RPN代替Fast R-CNN中的Selective Search方法是Faster R-CNN中的核...原创 2017-12-27 20:52:30 · 382 阅读 · 0 评论 -
cs231n笔记(9+)——RoI pooling
每一个RoI都由一个四元组(r,c,h,w)表示,其中(r,c)表示左上角,而(h,w)则代表高度和宽度。这一层使用最大池化(max pooling)将RoI区域转化成固定大小的 H*W 的特征图(H和W是取决于任何特定RoI层的超参数)。RoI 最大池化通过将 h×w RoI窗口划分为 h / H × w / W个子窗口网格,子窗口大小固定为 H × W ,然后将每个子窗口中的值max pool...原创 2018-04-14 15:52:34 · 541 阅读 · 0 评论 -
MobileNet v1-v2的理解
v1: (1)单片卷积 + 1x1 通道改维度; (2)宽度因子a + 分辨率因子 b ; (以最低的精度损失换取大量的参数减少)v2: (1)加入残差结构(先升维:增加信息量,再降维度:较少参数,与Resnet相反),增加梯度传播 (2)较少block最后的Relu,为lineat,减少信息破坏; (3)全卷积(减少...原创 2019-08-21 16:05:52 · 1658 阅读 · 0 评论
分享