
Deep Learning
lwq1026
这个作者很懒,什么都没留下…
展开
-
Deep Learning(深度学习)之(三)Deep Learning的常用模型或者方法
转自:http://blog.youkuaiyun.com/boon_228/article/details/51700569Deep Learning(深度学习)之(三)Deep Learning的常用模型或者方法九、Deep Learning的常用模型或者方法9.1、AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经转载 2017-04-17 16:52:22 · 2628 阅读 · 0 评论 -
Spatial Transformer Networks
转自:http://blog.youkuaiyun.com/mxs30443/article/details/53070533Spatial Transformer Networks是Deepmind团队去年的一个工作,一经发布就引起了大量关注,这篇文章把在图像识别前常做的alignment操作放到了neural network当中,不得不说方法很优雅也很work。我当时也在第一时间读转载 2017-09-18 16:07:38 · 450 阅读 · 0 评论 -
空间映射网络--Spatial Transformer Networks
转自:http://blog.youkuaiyun.com/zhangjunhit/article/details/67631762Spatial Transformer Networks 主要对目标在特征空间做不变性归一化 解决 角度、尺度等变形引入的影响 Code: https://github.com/skaae/transformer_network首先我们转载 2017-09-18 16:08:21 · 501 阅读 · 0 评论 -
Paper Reading:Spatial Transformer Networks(with code explanation)
转自:http://blog.youkuaiyun.com/l691899397/article/details/53641485原文:Spatial Transformer Networks前言:卷积神经网络(CNN)已经可以构建出一个强大的分类模型,但它仍然缺乏能力来应对输入数据的空间变换,比如:平移、缩放、旋转,尽管convolutional层和pooling层在一定程度上解转载 2017-09-18 16:09:07 · 539 阅读 · 0 评论 -
基于R-CNN的物体检测
转自:http://blog.youkuaiyun.com/hjimce/article/details/50187029基于R-CNN的物体检测原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50187029作者:hjimce一、相关理论 本篇博文主要讲解2014年CVPR上的经典paper:《Rich featu转载 2017-10-19 20:35:41 · 316 阅读 · 0 评论 -
基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN
转自:http://www.cnblogs.com/skyfsm/p/6806246.html基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNNobject detection我的理解,就是在给定的图片中精确找到物体所在位置,并标注出物体的类别。object detection要解决的问题就是物体在哪里,是什么这整个流转载 2017-10-19 21:44:27 · 375 阅读 · 0 评论 -
CNN目标检测与分割(一):Faster RCNN详解
转自:http://blog.youkuaiyun.com/zy1034092330/article/details/62044941Faster RCNN github : https://github.com/rbgirshick/py-faster-rcnnFaster RCNN paper : https://arxiv.org/abs/1506.01497转载 2017-10-19 21:55:16 · 3077 阅读 · 0 评论 -
基于深度学习的目标检测
转自:http://www.cnblogs.com/gujianhan/p/6035514.html普通的深度学习监督算法主要是用来做分类,如图1(1)所示,分类的目标是要识别出图中所示是一只猫。而在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)竞赛以及实际的应用中,还包括目标定位和目标检测等任务。其中目标定位转载 2017-10-23 19:57:41 · 658 阅读 · 0 评论 -
Faster R-CNN物体检测
转自:http://blog.youkuaiyun.com/hjimce/article/details/73382553版权声明:本文为博主原创文章,欢迎转载,转载请注明原文地址、作者信息。转载 2017-10-15 09:53:40 · 342 阅读 · 0 评论 -
TP FP TN FN
转自:作者:Charles Xiao链接:https://www.zhihu.com/question/19645541/answer/91694636来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。纠正下,精确率(precision)和准确率(accuracy)是不一样的,题主问的应该是精确率与召回率之间的差别。一转载 2017-11-02 11:25:29 · 1286 阅读 · 0 评论 -
VAE(Variational Autoencoder)的原理
转自:http://www.cnblogs.com/huangshiyu13/p/6209016.htmlKingma, Diederik P., and Max Welling. "Auto-encoding variational bayes." arXiv preprint arXiv:1312.6114 (2013).论文的理论推导见:https://zhuanla转载 2017-11-20 13:40:23 · 876 阅读 · 0 评论 -
【论文笔记】Spatial Transformer Networks
转自: http://blog.youkuaiyun.com/shaoxiaohu1/article/details/51809605参考文献:**Jaderberg M, Simonyan K, Zisserman A. Spatial transformer networks[C]//Advances in Neural Information Processing Syste转载 2017-09-18 15:50:18 · 915 阅读 · 0 评论 -
Spatial Transformer Networks(空间变换神经网络)
转自:http://www.cnblogs.com/neopenx/p/4851806.htmlSpatial Transformer Networks(空间变换神经网络)Reference:Spatial Transformer Networks [Google.DeepMind]Reference:[Theano源码,基于Lasagne]转载 2017-09-18 15:28:06 · 1230 阅读 · 0 评论 -
Deep Learning(深度学习)之(一)特征以及训练方法
转自:http://blog.youkuaiyun.com/boon_228/article/details/51700418Deep Learning(深度学习)之(一)特征以及训练方法目录:一、概述二、背景三、人脑视觉机理四、关于特征 4.1、特征表示的粒度 4.2、初级(浅层)特征表示转载 2017-04-17 10:55:35 · 2369 阅读 · 0 评论 -
Deep Learning(深度学习)之(二)Deep Learning的基本思想
转自:http://blog.youkuaiyun.com/boon_228/article/details/51700507Deep Learning(深度学习)之(二)Deep Learning的基本思想五、Deep Learning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为: I =>S1=>S2=转载 2017-04-17 15:21:04 · 987 阅读 · 0 评论 -
如何理解TensorFlow中的batch和minibatch
转自 http://hp.stuhome.net/index.php/2016/09/20/tensorflow_batch_minibatch/原文如下:在刚开始学习使用TF的过程中,我不是很理解什么是“batch”。也经常有人问,到底minibatch是干什么的?然而这是一个在TF中,或者说很多DL的框架中很常见的词。这个解释我觉得比较贴转载 2017-05-17 16:06:53 · 720 阅读 · 0 评论 -
大牛教你如何用 TensorFlow 亲手搭建一套图像识别模块
转自:http://tech.sina.com.cn/roll/2017-03-22/doc-ifycspxn9397393.shtml视频:https://v.qq.com/x/page/n0386utnrb0.html?start=492自 2015 年 11 月首次发布以来,TensorFlow 凭借谷歌的强力支持,快速的更新和迭代,齐全的文档和教程,以及上手快且简单转载 2017-05-22 12:46:08 · 13576 阅读 · 1 评论 -
win7安装Anaconda+TensorFlow
转自:http://blog.youkuaiyun.com/u013080652/article/details/68922702先总结自己遇到的坑:(回头想想其实安装很简单)第一大坑:anaconda必须安装4.2版本,不能安装4.3 版本;满满的血泪史 因为我们需要安装自带的python必须是3.5,才可以调用TensorFlow 但是anaconda4.3自带是python3.6转载 2017-06-02 21:02:39 · 1066 阅读 · 0 评论 -
Siamese Network理解
文章地址:http://blog.youkuaiyun.com/sxf1061926959/article/details/54836696提起siamese network一般都会引用这两篇文章: 《Learning a similarity metric discriminatively, with application to face verification》和《 Hamming Dis转载 2017-07-17 15:20:38 · 1899 阅读 · 0 评论 -
论文笔记:Spatial Transformer Networks中的仿射变换和双线性插值
转自: http://blog.youkuaiyun.com/sinat_34474705/article/details/75125520最近在看Google的Spatial Transformer Networks,脑洞又一次大开,故打算将学的一点东西记录在这里,本篇博文是学习Spatial Transformer Networks (STN)的基础,主要介绍仿射变换和双线性插值。内容转载 2017-09-18 14:33:14 · 1293 阅读 · 0 评论 -
论文笔记:Spatial Transformer Networks(空间变换网络)
转自:http://blog.youkuaiyun.com/sinat_34474705/article/details/75268248上一篇博客 Spatial Transformer Networks论文笔记(一)——仿射变换和双线性插值介绍了仿射变换和双线性插值,为更好地理解STN打基础。本篇博客是记录的是阅读原文Spatial Transformer Networks的一些笔转载 2017-09-18 14:35:29 · 1416 阅读 · 0 评论 -
三十分钟理解:线性插值,双线性插值Bilinear Interpolation算法
转自:http://www.ppvke.com/Blog/archives/44692线性插值先讲一下线性插值:已知数据 (x0, y0) 与 (x1, y1),要计算 [x0, x1] 区间内某一位置 x 在直线上的y值(反过来也是一样,略):y−y0x−x0=y1−y0x1−x0y=x1−xx1−x0y0+x−x0x1−x0y1上面比较好转载 2017-09-18 14:36:24 · 1514 阅读 · 0 评论 -
经典重读 | 深度学习方法:卷积神经网络结构变化——Spatial Transformer Networks
转自:http://www.sohu.com/a/149717964_697750作者 | 大饼博士X本文具体介绍Google DeepMind在15年提出的Spatial Transformer Networks,相当于在传统的一层Convolution中间,装了一个“插件”,可以使得传统的卷积带有了[裁剪]、[平移]、[缩放]、[旋转]等特性。理论上,作者希转载 2017-09-18 14:37:20 · 1311 阅读 · 0 评论 -
AutoEncoder详解
转自 http://blog.youkuaiyun.com/roguesir/article/details/77469665前言AutoEncoder是深度学习的另外一个重要内容,并且非常有意思,神经网络通过大量数据集,进行end-to-end的训练,不断提高其准确率,而AutoEncoder通过设计encode和decode过程使输入和输出越来越接近,是一种无监督学习过程转载 2017-11-20 13:59:23 · 50194 阅读 · 0 评论