
CNN
xiewenbo
互联网广告行业呆过几年,旅游公司呆过几年,对机器学习,自然语言处理,图像识别,个性化推荐 有兴趣
展开
-
因果卷积(causal)与扩展卷积(dilated)之An Empirical Evaluation of Generic Convolutional and Recurrent Networks f
最近在看关于NLP(自然语言处理)方面的文章,(其实不是自己要看),anyway,看了一个“An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling“,讲到了:虽然人们现在都在用RNN和LSTm去处理序列问题(sequencemodeling),但是明显最近几年这些模...转载 2020-01-08 10:03:16 · 1032 阅读 · 0 评论 -
因果卷积(causal)与扩展卷积(dilated)
https://www.cnblogs.com/fantastic123/p/9389128.htmlhttps://blog.youkuaiyun.com/silence2015/article/details/79748729https://www.jianshu.com/p/f743bd9041b3原创 2019-12-13 14:21:30 · 1980 阅读 · 0 评论 -
YOLO系列之yolo v2
yolo_v2论文发表在CVPR2017。v2算法在v1的基础上可以说是飞跃性提升,吸取诸子百家之优势。同时,v2的论文也是目前为止yolo系列论文里干货最多的文章。论文标题:《YOLO9000: Better, Faster, Stronger》论文地址: https://arxiv.org/pdf/1612.08242v1.pdfyolo_v2的一大特点是可以”tradeoff“,...转载 2019-07-24 17:37:55 · 194 阅读 · 0 评论 -
CNN中feature map、卷积核、卷积核个数、filter、channel
只需要一句话就解释清楚了:不管输入图像的深度为多少,经过一个卷积核(filter),最后都通过下面的公式变成一个深度为1的特征图。 也就是说不管卷积核深度是多少(卷积核的深度和要被卷积的原始神经元的深度要一样),而卷积会合并卷积深度为1,我想这才是很多人疑惑的地方,其他的没什么好疑惑的。这里还是想强调一下,卷积核(filter)的channel数,其实是与输入图像相同的,所以常常会省略不写,只...转载 2019-07-19 22:59:47 · 9649 阅读 · 0 评论 -
1 * 1的卷积核(准备开始写)
原文:https://blog.youkuaiyun.com/chaipp0607/article/details/60868689原文:https://blog.youkuaiyun.com/briblue/article/details/831514751. google inception 里的1*1 conv kernel 用途都有1*1卷积核的出现,那么它到底是做什么的?我们应该如何理...转载 2018-11-12 18:01:40 · 318 阅读 · 0 评论 -
YOLO (v1)
转处:https://zhuanlan.zhihu.com/p/24916786YOLO核心思想:从R-CNN到Fast R-CNN一直采用的思路是proposal+分类 (proposal 提供位置信息, 分类提供类别信息)精度已经很高,但是速度还不行。 YOLO提供了另一种更为直接的思路: 直接在输出层回归bounding box的位置和bounding box所属的类别(整张图作为网络的...转载 2019-07-23 16:40:41 · 180 阅读 · 0 评论 -
亚像素
最近接触到一些和subpixel相关的操作,对亚像素相关基本概念还不是很了解,所以这里想了解一下。 在相机成像的过程中,获得的图像数据是将图像进行了离散化的处理,由于感光元件本身的能力限制,到成像面上每个像素只代表附近的颜色。例如两个感官原件上的像素之间有4.5um的间距,宏观上它们是连在一起的,微观上它们之间还有无数微小的东西存在,这些存在于两个实际物理像素之间的像素,就被称为“亚...转载 2019-01-16 15:34:22 · 275 阅读 · 0 评论 -
FCN的理解
直观展现网络结构:http://ethereon.github.io/netscope/#/editor卷积与逆卷积的动图https://github.com/vdumoulin/conv_arithmetic 【原文图】“Fully convolutional networks for semantic segmentation.” 上图中,32x即为扩大32倍。P...转载 2019-01-25 16:54:13 · 332 阅读 · 0 评论 -
目标检测(Object Detection)——理解SPP Layer
一、 前言在目标检测系列文章的上一篇R-CNN中,我们知道R-CNN在当时虽然取得了不错的成绩,但是其需要改进的地方也很多,比如算法步骤比较繁琐,需要大量的时间和内存去训练和测试模型等。除此之外,在训练和测试常见的CNN网络时,要求输入的图像有一个固定的大小,比如要求图像的输入为224*224。(网络前面的卷积层不要求输入图像的大小,后面的全连接层的输入特征数是固定的,需要固定的输入)这就要求...转载 2018-10-17 18:18:41 · 1793 阅读 · 0 评论 -
why original CNN need fixed size as input while FCN doesn't
Last few layers of Original CNN are dense layer with fixed size which need inputs with fixed size, otherwise the dense layer ....Mean while the FCN doesn't has a fixed dense layer .so原创 2018-06-27 10:57:06 · 203 阅读 · 0 评论 -
Tensorflow中卷积的padding操作
https://www.jianshu.com/p/05c4f1621c7e之前一直对tensorflow的padding一知半解,直到查阅了tensorflow/core/kernels/ops_util.cc中的Get2dOutputSizeVerbose函数,才恍然大悟,下面是具体的介绍实际上tensorflow官方API里有介绍!!不科学上网貌似打不开根据tensorflow中的conv2...转载 2018-06-29 16:18:40 · 342 阅读 · 0 评论 -
从AlexNet理解卷积神经网络的一般结构
出自:https://blog.youkuaiyun.com/chaipp0607/article/details/72847422/2012年AlexNet在ImageNet大赛上一举夺魁,开启了深度学习的时代,虽然后来大量比AlexNet更快速更准确的卷积神经网络结构相继出现,但是AlexNet作为开创者依旧有着很多值得学习参考的地方,它为后续的CNN甚至是R-CNN等其他网络都定下了基调,所以下面我们将...转载 2018-06-01 11:07:11 · 436 阅读 · 0 评论 -
反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)
前言在看图像语义分割方面的论文时,发现在网络解码器结构中有的时候使用反卷积、而有的时候使用unpooling或或者unsampling,查了下资料,发现三者还是有不同的。这里记录一下。图示理解使用三张图进行说明: 图(a)表示UnPooling的过程,特点是在Maxpooling的时候保留最大值的位置信息,之后在unPooling阶段使用该信息扩充Feature Map,除最大值位置以外,其余补0...转载 2018-06-21 15:01:01 · 5615 阅读 · 2 评论 -
全卷积网络 FCN 详解
背景CNN能够对图片进行分类,可是怎么样才能识别图片中特定部分的物体,在2015年之前还是一个世界难题。神经网络大神Jonathan Long发表了《Fully Convolutional Networks for Semantic Segmentation》在图像语义分割挖了一个坑,于是无穷无尽的人往坑里面跳。全卷积网络 Fully Convolutional NetworksCNN 与 FCN...转载 2018-06-21 15:00:21 · 654 阅读 · 0 评论 -
反卷积 Transposed Convolution, Fractionally Strided Convolution or Deconvolution
https://buptldy.github.io/2016/10/29/2016-10-29-deconv/反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptive deconvolutional networks for ...转载 2018-06-20 20:47:16 · 456 阅读 · 0 评论 -
理解深度学习中的卷积
http://www.hankcs.com/ml/understanding-the-convolution-in-deep-learning.html译自Tim Dettmers的Understanding Convolution in Deep Learning。有太多的公开课、教程在反复传颂卷积神经网络的好,却都没有讲什么是“卷积”,似乎默认所有读者都有相关基础。这篇外文既友转载 2017-07-28 22:48:39 · 836 阅读 · 1 评论 -
Convolutional Neural Networks卷积神经网络 Contents 一:前导 Back Propagation反向传播算法 网络结构 学习算法 二:Convolutional N
转自:http://www.gageet.com/2014/0878.phpContents一:前导 Back Propagation反向传播算法网络结构学习算法二:Convolutional Neural Networks卷积神经网络三:LeCun的LeNet-5四:CNNs的训练过程五:总结本文是我在20140822的周报,其中部转载 2017-07-31 16:38:43 · 592 阅读 · 0 评论