
深度学习
ture_dream
这个作者很懒,什么都没留下…
展开
-
faster训练解析!!!!
刚刚同事给我讲fasterRCNN的训练,赶紧记下来;这同事自己调试出来的这些参数,流弊!!!下载地址:http://download.youkuaiyun.com/detail/ture_dream/9678542上面太小,下载可以对应看他说:conv5后的图片512维,36*60=2160个点,这是卷积后的特征图,每个点 对应的原图是 16*16 大小的图像块,为什么?600/3原创 2017-04-11 17:27:05 · 828 阅读 · 0 评论 -
SmoothL1LossLayer论文与代码的结合理解
A Loss Function for Learning Region Proposals 训练RPN时,只对两种anchor给予正标签:和gt_box有着最高的IoU && IoU超过0.7。如果对于所有的gt_box,其IoU都小于0.3,则标记为负。损失函数定义如下: 其中i为一个mini-batch中某anchor的索引,pi表示其为目标的预测概率,pi*表示gt转载 2017-02-10 19:27:28 · 4319 阅读 · 0 评论 -
Caffe 源码(九):euclidean_loss_layer 分析
目录目录简单介绍主要函数Reshape 函数Forward_cpu 函数Backward_cpu 函数简单介绍Euclidean loss layer 计算两个输入的差的平方和:12N∑Ni=1||x1i−x2i||22主要函数1.Reshape 函数:template void EuclideanLossLayer::Reshape( c转载 2017-02-10 13:55:56 · 1282 阅读 · 0 评论 -
softmax损失函数
cnn进行前向传播阶段,依次调用每个Layer的Forward函数,得到逐层的输出,最后一层与目标函数比较得到损失函数,计算误差更新值,通过反向传播逐层到达第一层,所有权值在反向传播结束时一起更新。loss layer 是CNN的终点,接受两个Blob作为输入,其中一个是CNN的预测值,另一个是真实标签。损失层则将这两个输入进行一系列运算,得到当前网络的损失函数(Loss Function),原创 2017-02-09 17:18:01 · 30896 阅读 · 0 评论 -
linux中结合opencv编译c++代码
linux中结合opencv编译c++代码。添加代码test.cpp如下:#include int main(int argc,char ** argv) { IplImage* img = cvLoadImage(argv[1],CV_LOAD_IMAGE_COLOR); cvNamedWindow("Image_show",CV_WINDOW_转载 2016-12-21 15:01:49 · 1165 阅读 · 0 评论 -
gdb调试
gdb 使用手册 博客分类:CentOS/RedHat正则表达式C#C++C大众硬件 简述 一 列文件清单 二:执行程序 三:显示数据 四:断点(breakpoint) 五.断点的管理 六.变量的检查和赋值 七. 单步执行 八.函数的调用 九.机器语言工具 十.信号 GDB的转载 2016-12-17 14:31:22 · 627 阅读 · 0 评论 -
gdb来debug caffe代码
[ GDB ]gdb中查看源代码执行路径使用gdb来debug caffe代码基本分为以下几步:**********************step1: gdb ./build/tools/caffestep2: b 154step3: set args train --solver=/home/wenyangming/caffe/examples/cifa转载 2016-12-17 14:20:48 · 1583 阅读 · 0 评论 -
调试caffe代码
参考:http://blog.youkuaiyun.com/xiaoyezi_1834/article/details/50724875https://www.zhihu.com/question/27987666自己苦于需要修改caffe代码和调试代码,找寻方法找了很久 -> 总结如下:qt creator/anjuta/gdb 如下都是博主亲身试验成功的转载 2016-11-30 15:39:08 · 2626 阅读 · 2 评论 -
更改LetNet-5网络
话说上次博客画出来MNIST的LENET-5模型,http://blog.youkuaiyun.com/ture_dream/article/details/53007803今天可以把模型稍加修改,变成逻辑回归(Logistics Regression,LR)分类器1.复制examples/mnist/lenet_train_test.prototxt,重命名为lenet_lr.prototx原创 2016-11-28 15:39:51 · 2267 阅读 · 0 评论 -
Blob进阶6 (显示代码行号)
把dfata_layers.cpp贴出了,明天好好注释一下:#include #include #include "caffe/blob.hpp"#include "caffe/data_transformer.hpp"#include "caffe/internal_thread.hpp"#include "caffe/layer.hpp"#include "caffe/lay原创 2016-11-26 21:16:40 · 524 阅读 · 0 评论 -
Blob进阶5
net在caffe中代表一个完整的cnn模型,包含若干layer实例。net是一张图纸,对应的是protoBuffer文本文件,描述文件*.prototxt,现在用自带的caffeNet模型描述文件,位于,/caffe-master/models/bvlc_reference_caffenet/deploy.prototxt,将此文件拷贝到当前工作目录下1 在caff原创 2016-11-26 17:31:07 · 574 阅读 · 0 评论 -
Blob进阶4
从今天起做一个幸福的人学caffe 敲代码我有一所房子由Blob建起Blob在内存中表示四维数组,维度由高到底为(num_,channels_,height_,width_),num:第几帧,存储数据或权值(data)和权值增量(diff) { 相当重要的两个概念}channels:颜色通道RGBheight:图像的高width:图像的宽原创 2016-11-25 09:59:20 · 652 阅读 · 0 评论 -
Blob进阶3
Update操作将data与diff融合,是权值更新最终实施者 data=data-diff代码:#include#include#includeusing namespace caffe;using namespace std;int main(void){ Blob a; cout<<"Size: "<< a.shape_string()<<endl; a.R原创 2016-11-24 18:25:41 · 914 阅读 · 0 评论 -
Blob进阶2
在Blob进阶1基础上更改代码:#include#include#includeusing namespace caffe;using namespace std;int main(void){ Blob a; cout<<"Size: "<< a.shape_string()<<endl; a.Reshape(1,2,3,4); //调用Reshape赋值 c原创 2016-11-24 17:46:00 · 384 阅读 · 0 评论 -
Blob进阶(一个小程序)
从今天起做一个幸福的人学caffe 敲代码我有一所房子由Blob建起Blob在内存中表示四维数组,维度由高到底为(num_,channels_,height_,width_),num:第几帧,存储数据或权值(data)和权值增量(diff) { 相当重要的两个概念}channels:颜色通道RGBheight:图像的高width:图像的宽原创 2016-11-24 15:19:54 · 2408 阅读 · 0 评论 -
图像融合( 想起了大学专业课电磁场与电磁波)
Seamless cloning泊松克隆原文地址:http://blog.youkuaiyun.com/hjimce/article/details/45716603作者:hjimce本篇博文主要讲解2004年Siggraph的经典paper:《Poisson Image Editing》,在图像融合领域,融合效果最牛逼的paper。讲这个算法,我没打算讲太多理论的公式,理论的东西,对于大部分转载 2016-11-24 10:25:28 · 1926 阅读 · 0 评论 -
caffe源码c++学习笔记Classifier.cpp
caffe源码c++学习笔记原文地址:http://blog.youkuaiyun.com/hjimce/article/details/48933845作者:hjimce一、预测分类最近几天为了希望深入理解caffe,于是便开始学起了caffe函数的c++调用,caffe的函数调用例子网上很少,需要自己慢慢的摸索,即便是找到了例子,有的时候caffe版本不一样,也会出现错误。对于预测分类转载 2016-11-24 09:28:57 · 1290 阅读 · 0 评论 -
caffe大厦的砖头Blob
caffe的万丈高楼(net)是我们按照设计的图纸(prototxt),用Blob这些砖块筑成的一层层(layer)楼房,最后通过进行简装修(train),精装修(finetune)实现。 深度神经网络是一种模块化的模型,它由一系列作用在数据块之上的内部连接层组合而成。 Caffe 基于自己的模型架构,通过逐层定义(layer-by-layer)的方式定义一个网络(Nets)。网络从数据原创 2016-11-23 15:14:17 · 628 阅读 · 0 评论 -
一张图读懂caffe架构
解释两个部分:一:预处理图像的leveldb构建 输入:一批图像和label (2和3) 输出:leveldb (4) 指令里包含如下信息:conver_imageset (构建leveldb的可运行程序)train/ (此目录放处理的jpg或者其他格式的图像)label.txt (图像文件名及其label信息)输出的leveldb文件夹的名字CPU/GPU (指定是在原创 2016-11-23 14:28:02 · 6258 阅读 · 0 评论 -
关于绝对路径和相对路径(啥啥未定义或者找不到神码目录)
以前跑通的代码总是报错:啥啥未定义或者找不到神码目录原创 2016-11-23 13:21:26 · 768 阅读 · 0 评论 -
Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。(做数据集的过程可以看http://blog.youkuaiyun.com/sinat_30071459/article/details/50723212)Faster-RCNN源码下载地址:Matlab版本:https://github.com/ShaoqingRen/faster_rcn转载 2016-11-22 13:44:17 · 1293 阅读 · 0 评论 -
一张图理解卷积神经网络卷积层和感受野
局部关联:每个像素点和她周边的点广联大(图像连续)形象地说,左边是32*32*3的图像,我们让五个小朋友分别看,右边的12345小盆友分别关注图像的颜色,轮廓,纹理等等信息。五个小朋友对应五个神经元,也叫filter,每个小盆友视野有限,每次只看一小块,慢慢滑动直到看完,那么左图中的小块叫感受野(receptive field)。每个小朋友看完一张图得到一张图,五个人得出五张,即d原创 2016-11-20 15:16:13 · 15325 阅读 · 4 评论 -
faster_rcnn test 浮点运算量
以上总结了faster-RCNN 测试计算量总结,仅仅截取表格一部分,下载见点击打开链接卷积层浮点运算计算量公式(参考21天实战caffe)是:Caculation(conv n)=I*J*M*N*K*L其中,I,J卷积核 M,N输出通道的特征图大小, K输入通道数, L输出通道数 {KL个卷集核实现通道的转换}列如:上图绿色框里列出了第二个卷积层参数里:I=J=5;M=原创 2016-11-16 15:10:56 · 2120 阅读 · 0 评论 -
LeNet模型简介
用点击打开链接画出上面的结构图,如上图,联系prototxt可以清晰看到Lenet的网络结构 。数据源Mnist负责从预处理得到的lmdb数据库里读取图像数据data和标签数据label,图像数据送入后续CNN结构中进行处理。CNN结构包含卷积层conv(1,2)+下采样层pool(1,2)交替形成的特征层,以及全连接层ip1和ip2(类似于多层感知机结构)。对ip2的输出进一步同原创 2016-11-16 12:28:24 · 2964 阅读 · 0 评论 -
MNIST 模型测试
:~/Documents/caffe-master$ ./build/tools/caffe.bin test -model examples/mnist/lenet_train_test.prototxt -weights examples/mnist/lenet_iter_10000.caffemodel -iterations 100I1116原创 2016-11-16 10:50:20 · 1421 阅读 · 0 评论 -
MNIST 数据集可视化代码
xie yige matlab daima fang zai $caffe_root/data/mnist/ clear;clc;clear all;image_file_name='t10k-images-idx3-ubyte';index_filename='t10k-labels-idx1-ubyte';fid1=fopen(image_file_name,'原创 2016-11-15 20:25:47 · 3245 阅读 · 1 评论 -
Caffe源码解析4: Data_layer
Caffe源码解析4: Data_layer转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类BaseDataLayerBasePrefetchin转载 2016-11-15 15:48:02 · 457 阅读 · 0 评论 -
卷积
作家马德说:原创 2016-11-13 17:46:37 · 472 阅读 · 0 评论 -
论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection
尊重原创,转载请注明:http://blog.youkuaiyun.com/tangwei2014这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。虽然目前版本还有一些硬伤,但是解决了目前基于DL检测中一个大痛点,就是速度问题。 其增强版本GPU中能跑45fps,简化版本155fps。转载 2016-11-12 10:20:01 · 746 阅读 · 0 评论 -
caffe training instruction for image classification
学习笔记3 用自己的数据训练和测试“CaffeNet” 2014.7.22 薛开宇(点击打开链接) he http://blog.youkuaiyun.com/u012746763/article/details/50389898xuexi xunlian :find train/cat *.jpeg |cut -d '/' -f2-3 > train.txt原创 2016-11-11 14:32:02 · 401 阅读 · 0 评论 -
Fast RCNN详解
Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.继2014年的RCNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码。同样使用最大规模转载 2016-11-10 10:47:00 · 1244 阅读 · 0 评论 -
目标检测——从RCNN到Faster RCNN 串烧
本人小硕一枚,方向是深度学习的目标检测,故想把从RCNN到Faster RCNN整个线串一下,理清里面的整个设计流程和创新思路,也算是对大神的创新思维进行学习。我会不定期改善博客里面可能存在的小错误,希望大家多多谅解支持啦。另外,在论文中已经讲到的点,如果不是特别重要的话,我不会再复述的啦,所以说各位看官先研读研读论文先,然后再看看我对这些论文的理解。对了,涉及到哪层是几乘几以及那层到底是多少这种转载 2016-11-05 17:21:14 · 994 阅读 · 0 评论 -
draw_net
ImportError: No module named pydotNo module named google.protobufhttp://blog.youkuaiyun.com/u013609078/article/details/50479518sudo apt-get in原创 2016-11-03 01:25:53 · 1272 阅读 · 0 评论 -
caffe例子mnist
为了程序的简洁,在caffe中是不带练习数据的,因此需要自己去下载。但在caffe根目录下的data文件夹里,作者已经为我们编写好了下载数据的脚本文件,我们只需要联网,运行这些脚本文件就行了。注意:在caffe中运行所有程序,都必须在根目录下进行,否则会出错1、mnist实例mnist是一个手写数字库,由DL大牛Yan LeCun进行维护。mnist最初用于支票上的手写数字识别, 现在原创 2016-11-02 14:37:56 · 887 阅读 · 3 评论 -
卷积神经网络CNN
卷积神经网络CNN近来在了解深度学习。深度神经网络的一大特点就是含有多隐含层。卷积神经网络(CNN)算是深度神经网的前身了,在手写数字识别上在90年代初就已经达到了商用的程度。本文中将简要介绍CNN,由于相应的博文资料已经很多,也写的很好,本篇最有价值的是参考资料部分。前向神经网络数字识别假设我们的图片是28*28像素的,使用最简单的神经网络进行识别,如图1图1转载 2016-11-02 10:51:35 · 1436 阅读 · 0 评论 -
分享我的书签
分享一些我常用的链接在线学习coursera :最大在线公开课网站,可还有作业可做,不拿证书基本都是免费的。udacity:有不少好课程。慕课网:前端的课程比较多。leetcode:刷完leetcode150题目,找工作笔试面试题算法题基本无压力。实验楼:适合初学编程语言,边看边实验。Hackerrank:也是在线oj,但有一些机器学习类的题目,很不错。kaggle:机器学转载 2016-11-02 10:43:21 · 466 阅读 · 0 评论 -
卷积神经网络入门
一、前言这篇卷积神经网络是前面介绍的多层神经网络的进一步深入,它将深度学习的思想引入到了神经网络当中,通过卷积运算来由浅入深的提取图像的不同层次的特征,而利用神经网络的训练过程让整个网络自动调节卷积核的参数,从而无监督的产生了最适合的分类特征。这个概括可能有点抽象,我尽量在下面描述细致一些,但如果要更深入了解整个过程的原理,需要去了解DeepLearning。这篇文章会涉及到卷积的原理与图转载 2016-11-02 10:28:00 · 4852 阅读 · 0 评论 -
Faster RCNN解析
在介绍Faster R-CNN之前,先来介绍一些前验知识,为Faster R-CNN做铺垫。一、基于Region Proposal(候选区域)的深度学习目标检测算法Region Proposal(候选区域),就是预先找出图中目标可能出现的位置,通过利用图像中的纹理、边缘、颜色等信息,保证在选取较少窗口(几千个甚至几百个)的情况下保持较高的召回率(IoU,Intersection-over-转载 2016-10-23 00:44:38 · 64514 阅读 · 4 评论 -
一张图理解Faster—RCNN测试流程
请教同学Faster—RCNN测试流程,他让我看一个Faster—RCNN模型文件(自己找哈):看了后,自己画了一张图:注:conv:卷积 relu:(rectified linear units)激活函数 fc:全连接 RPN:region proposal network cls原创 2016-10-19 17:22:51 · 8525 阅读 · 2 评论 -
faster-RCNN 论文笔记
faster-RCNN 是一个单一联合检测网络,由两个特征共享的模型构成:1:深度全卷积网络(生成proposal区域) 2:FastRCNN检测器(使用proposal)文章说,目前最先进的目标检测网络region proposal 算法生成假的目标定位,领先的如空间金字塔池层,和FastRCNN,在减少这些检测网络运行时间的同时,也暴露了region proposal 计算的原创 2016-10-18 16:05:21 · 987 阅读 · 0 评论