
deep learning
文章平均质量分 92
mao_kun
这个作者很懒,什么都没留下…
展开
-
[caffe]深度学习之图像分类模型VGG解读
一、简介vgg和googlenet是2014年imagenet竞赛的双雄,这两类模型结构有一个共同特点是go deeper。跟googlenet不同的是,vgg继承了lenet以及alexnet的一些框架,尤其是跟alexnet框架非常像,vgg也是5个group的卷积、2层fc图像特征、一层fc分类特征,可以看做和alexnet一样总共8个part。根据前5个卷积group,每个grou转载 2016-01-15 23:59:27 · 3516 阅读 · 0 评论 -
如何在caffe中增加layer以及caffe中triplet loss layer的实现
关于triplet loss的原理,目标函数和梯度推导在上一篇博客中已经讲过了,具体见:triplet loss原理以及梯度推导,这篇博文主要是讲caffe下实现triplet loss,编程菜鸟,如果有写的不优化的地方,欢迎指出。1.如何在caffe中增加新的layer新版的caffe中增加新的layer,变得轻松多了,概括说来,分四步:1)在./src/caffe/pr转载 2016-10-25 21:33:39 · 967 阅读 · 0 评论 -
Deep Residual Network实验复现
本文是对ImageNet 2015的冠军ResNet(Deep Residual Networks)以及目前围绕ResNet这个工作研究者后续所发论文的总结,主要涉及到下面5篇论文。1. Link: Highway Networks:Rupesh Kumar Srivastava, Klaus Greff, Jürgen Schmidhuber2. Link: Deep转载 2016-08-07 00:03:02 · 2518 阅读 · 0 评论 -
caffe源码解析的三个博客分享
感谢这三位博主的博文,对个人了解caffe源码有了很大的帮助,特记录再次,方便其他朋友使用。1.http://blog.youkuaiyun.com/xizero00/article/category/727908 (博文中有一篇着重点出如何添加layer,写的非常详细!)2.http://blog.youkuaiyun.com/seven_first/article/ca转载 2016-08-06 23:55:04 · 2233 阅读 · 0 评论 -
Python 装饰器,@property 以及 Pycaffe.py
备注:此篇博文有助于我们理解python、C++和boost调用之间的关系,详细可以查阅caffe的test.py代码,梳理python中调用方法。Python装饰器的知识请参考:12步轻松搞定python装饰器 @property函数的知识请参考:Python进阶之“属性(property)”详解看下面一段代码: 定义一个类,然后创建一个实例对象mc, c转载 2016-08-06 12:04:53 · 1351 阅读 · 0 评论 -
Classification: Instant Recognition with Caffe
Classification: Instant Recognition with CaffeIn this example we'll classify an image with the bundled CaffeNet model (which is based on the network architecture of Krizhevsky et al. for ImageNet).转载 2016-08-02 23:07:04 · 1133 阅读 · 0 评论 -
开源代码文献
持续跟新可以看看这个 http://blog.youkuaiyun.com/workerwu/article/details/46537849场景识别: SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling https://github.c转载 2016-03-27 22:11:25 · 1073 阅读 · 0 评论 -
谷歌大脑科学家 Caffe缔造者 贾扬清 微信讲座完整版
转载:http://suanfazu.com/t/caffe/9479大家好!我是贾扬清,目前在Google Brain,今天有幸受雷鸣师兄邀请来和大家聊聊Caffe。没有太多准备,所以讲的不好的地方还请大家谅解。我用的ppt基本上和我们在CVPR上要做的tutorial是类似的,所以大家如果需要更多的内容的话,可以去tutorial.caffe.berkeleyvision.or转载 2016-01-14 22:48:25 · 1282 阅读 · 0 评论 -
池化方法总结(Pooling)
在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。为什么可以通过降低维度呢?因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的转载 2016-01-12 22:55:47 · 101634 阅读 · 3 评论 -
CNN卷积神经网络新想法
最近一直在看卷积神经网络,想改进改进弄出点新东西来,看了好多论文,写了一篇综述,对深度学习中卷积神经网络有了一些新认识,和大家分享下。 其实卷积神经网络并不是一项新兴的算法,早在上世纪八十年代就已经被提出来,但当时硬件运算能力有限,所以当时只用来识别支票上的手写体数字,并且应用于实际。2006年深度学习的泰斗在《科学》上发表一篇文章,论证了深度结构在特征提取问题上的潜在实力,从而掀起了深转载 2016-01-12 22:46:29 · 13144 阅读 · 5 评论 -
卷积神经网络(一):LeNet5的基本结构
在机器视觉,图像处理领域,卷积神经网络取得了巨大的成功。本文将参考UFLDL和DEEPLEARNING.NET的教程,结合自己的理解,梳理一下卷积神经网络的构成以及其BP算法的求解。虽然利用theano可以方便的实现LeNet5,但是不利于学习和理解卷积神经网络,所以最后会自己动手用python实现一个简单的LeNet5,并尝试利用python的PyCUDA库进行加速。首先看LeNet5的转载 2016-01-12 22:41:54 · 2303 阅读 · 0 评论 -
CNN基础及开发环境搭建(综合参考)
CNN基础及环境搭建Author:王帅;Mail:mippr11.ws@gmail.com目前,深度学习在解决图像分类,语音识别等问题上获得了已知的最优结果,该系列算法越来越受到学术界和工业界的重视。何为深度学习?一个直观的解释是如果一个机器学习算法在建模的过程中使用了多层的自动特征表示,则该机器学习算法可以称之为深度学习算法,也就是该机器学习算法可以自动地计算特征的特征表示。而卷转载 2016-01-12 22:40:00 · 1252 阅读 · 0 评论 -
Selective Search for Object Recognition解读
Selective Search for Object Recoginitionsurgewong@gmail.comhttp://blog.youkuaiyun.com/surgewong 在前一段时间在看论文相关的工作,没有时间整理对这篇论文的理解。在前面的一篇博客【1】中有提到Selective Search【2】,其前期工作利用图像分割的方转载 2016-01-24 23:12:55 · 54008 阅读 · 4 评论 -
深度学习研究理解:OverFeat:Integrated Recognition, Localization and Detection using Convolutional Networks
本文是纽约大学Yann LeCun团队中Pierre Sermanet ,David Eigen和张翔等在13年撰写的一篇论文,本文改进了Alex-net,并用图像缩放和滑窗方法在test数据集上测试网络;提出了一种图像定位的方法;最后通过一个卷积网络来同时进行分类,定位和检测三个计算机视觉任务,并在ILSVRC2013中获得了很好的结果。一,介绍 卷积网络的主要优势是转载 2016-01-23 22:42:38 · 11517 阅读 · 3 评论 -
空间金字塔方法表示图像
注:本学习笔记是自己的理解,如有错误的地方,请大家指正,共同学习进步。本文学习自CVPR论文《Discriminative Spatial Pyramid》、《Discriminative Spatial Saliency for Image Classification》及《Beyond Bags of Features: Spatial Pyramid Matchingfor Re转载 2016-01-17 22:20:13 · 9037 阅读 · 0 评论 -
基于空间金字塔池化的卷积神经网络物体检测
基于空间金字塔池化的卷积神经网络物体检测原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50187655作者:hjimce一、相关理论 本篇博文主要讲解大神何凯明2014年的paper:《Spatial Pyramid Pooling in Deep Convolutional Networks for Vi转载 2016-01-17 22:13:55 · 8864 阅读 · 2 评论 -
Cross Validation
以下是我一直迷惑的、也是刚看到的validation set与training set、test set的关系: In particular, we cannot use the test set for the purpose of tweaking hyperparameters. Whenever you're designing Machine Learning a转载 2016-01-16 12:45:24 · 1203 阅读 · 0 评论 -
Convolutional Neural Networks (CNNs / ConvNets)
Table of Contents:Architecture OverviewConvNet LayersConvolutional LayerPooling LayerNormalization LayerFully-Connected LayerConverting Fully-Connected Layers to Convolutional LayersConvNet转载 2016-01-16 00:00:51 · 3048 阅读 · 0 评论 -
深度学习卷积算法的GPU加速实现方法
参考链接:http://blog.youkuaiyun.com/u010620604/article/details/52464529http://blog.youkuaiyun.com/guoyilin/article/details/44222087这篇论文主要讨论如何针对CNN做一些GPU矩阵计算的优化。传统CNN计算主要开销是在convolutions, activat转载 2017-02-05 18:46:52 · 17409 阅读 · 2 评论