
Caffe常用层
文章平均质量分 61
BigCowPeking
追求卓越,永不放弃
展开
-
caffe中不同层的含义和卷积的计算方式
caffe中不同的含义和卷积的计算方式转载 2017-11-09 22:09:12 · 671 阅读 · 0 评论 -
caffe常用层:softmaxLoss层
caffe常用层:softmaxLoss层转载 2017-12-31 20:46:28 · 371 阅读 · 0 评论 -
caffe中的常用层:卷积层
在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍卷积层参考1. 卷积层总述下面首先给出卷积层的结构设置的一个小例子(定义在.prototxt文件中) layer { name: "conv1" // 该层的转载 2018-01-14 11:22:26 · 1015 阅读 · 0 评论 -
caffe添加层:Focal Loss的caffe实现
原代码见: https://github.com/chuanqi305/FocalLoss1,caffe.proto 源文件在src/caffe/proto/目录里 从492行这些optional里,作者添加了两行:optional ReLU6Parameter relu6_param = 208;optional FocalLossParameter focal_loss_param = 14...原创 2018-03-07 21:49:28 · 4551 阅读 · 25 评论 -
Caffe中常用的层:Dropout层详解
dropout可以让模型训练时,随机让网络的某些节点不工作(输出置零),也不更新权重,其他过程不变。我们通常设定一个dropout radio=p,即每个输出节点以概率p置0(不工作,权重不更新),假设每个输出都是独立的,每个输出都服从二项伯努利分布p(1-p),则大约认为训练时,只使用了(1-p)比例的输出,相当于每次训练一个子网络。测试的时候,可以直接去掉Dropout层,将所有输出都使用...原创 2018-02-28 22:02:25 · 10498 阅读 · 0 评论 -
caffe常用层:特殊的Math函数
目录目录主要函数caffe_cpu_gemm 函数caffe_cpu_gemv 函数caffe_axpy 函数caffe_set 函数caffe_add_scalar 函数caffe_copy 函数caffe_scal 函数caffeine_cup_axpby 函数caffe_add caffe_sub caffe_mul caffe_div 函数caffe_powx caffe_sqr caff...转载 2018-03-23 21:26:27 · 2410 阅读 · 0 评论 -
caffe中常用层: BatchNorm层详解
Batchnorm原理详解前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。 本文旨在用通俗易懂的语言,对深度学习的常用算法–batchnorm的原理及其代码实现做一个详细的解读。本文主要包括以下几个部分。Batchnorm主要解决的问题Batchnorm原理解读Batchnorm的优点Batchnorm的源码解读第一...转载 2018-03-24 11:59:46 · 7929 阅读 · 2 评论 -
深度学习剖根问底:BN中的协方差偏移
今天给大家带来深度学习的优化策略篇的第一篇Batch Normalization(BN)。BN可以看做对输入样本的一种约束,最大作用是加速收敛,减少模型对dropout,careful weight initialnization依赖,可以adopt higher learning rate的优势,收敛速度可以提高10倍以上。 问题提出:深度网络参数训练时内部存在协方差偏移(Internal Co...转载 2018-04-09 21:30:37 · 3363 阅读 · 0 评论 -
深度学习剖根问底:caffe常用的优化算法solver实现
常见算法SGDx+= -learning_rate*dxMomentumMomentum可以使SGD不至于陷入局部鞍点震荡,同时起到一定加速作用。 Momentum最开始有可能会偏离较远(overshooting the target),但是通常会慢慢矫正回来。v = mu*v - learning_rate*dxx+= vNesterov momentumAdaGrad使用每个变量的历史梯度值...转载 2018-04-16 18:47:16 · 686 阅读 · 0 评论 -
caffe中常用的层:全连接层Full Connection层
全连接层到底什么用?我来谈三点。全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1x1的卷积;而前层是卷积层的全连接层可以...转载 2018-05-01 21:01:58 · 2737 阅读 · 0 评论 -
caffe参数优化:caffe常用层的参数含义
本文只讲解视觉层(Vision Layers)的参数,视觉层包括Convolution, Pooling, Local Response Normalization (LRN), im2col等层。1、Convolution层:就是卷积层,是卷积神经网络(CNN)的核心层。层类型:Convolution lr_mult: 学习率的系数,最终的学习率是这个数乘以solver.prototxt配置文...转载 2018-05-31 21:37:34 · 476 阅读 · 0 评论 -
深度学习中常用的层:Full Connect全连接层
全连接层的推导全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。全连接层的前向计算下图中连线最密集的2个地方就是全连接层,这很明显的可以看出全连接层的参数的确很多。在前向计算过程,也就是一个线性的加权求和的过程,全连接层的每一个输出都可以看成前一层的每一个结点乘以一个权重系数W,最后加上一个偏置值b得到,即 。如下图中第...转载 2018-06-15 07:30:39 · 8570 阅读 · 0 评论 -
caffe常用层:blob层代码解读
一、Blob的重要参数protected: shared_ptr<SyncedMemory> data_; //SyncedMemory类封装了CPU/GPU内存申请、同步和释放(Blob不关心具体细节) shared_ptr<SyncedMemory> diff_; vector<int> shape_; //Blob维度参数 ...转载 2018-08-26 20:30:56 · 517 阅读 · 0 评论 -
caffe常用层:batchNorm使用
caffe常用层:batchNorm使用原创 2017-12-24 21:27:37 · 6948 阅读 · 0 评论 -
caffe代码DataTransform
caffe 代码转载 2017-09-25 22:06:17 · 483 阅读 · 0 评论 -
caffe代码data_transform
caffe代码转载 2017-09-25 22:13:12 · 980 阅读 · 0 评论 -
caffe中的crop层
caffe中的crop层转载 2017-11-04 21:01:02 · 1284 阅读 · 0 评论 -
caffe中的Eltwise层
caffe中的Eltwise层转载 2017-11-04 21:07:25 · 2077 阅读 · 0 评论 -
caffe中的Slice层
caffe中的Slice层原创 2017-11-05 14:21:17 · 12131 阅读 · 0 评论 -
caffe中的concate层
caffe中的concate层转载 2017-11-05 13:01:10 · 3147 阅读 · 0 评论 -
caffe中的Power层
caffe中的Power层转载 2017-11-05 14:50:52 · 5659 阅读 · 0 评论 -
caffe中Reshape层
caffe中的Reshape层原创 2017-11-05 14:49:06 · 9198 阅读 · 0 评论 -
caffe中的batchNorm层
caffe中的batchNorm层转载 2017-11-05 15:07:25 · 584 阅读 · 0 评论 -
caffe中的batchNorm层
caffe中的batchNorm层转载 2017-11-05 15:12:53 · 1221 阅读 · 0 评论 -
Caffe中Convolution层
caffe中Convolution层原创 2017-11-05 15:21:05 · 3984 阅读 · 0 评论 -
caffe中Softmax层
caffe中Softmax层转载 2017-11-05 15:53:09 · 1755 阅读 · 0 评论 -
caffe中的SoftmaxLoss层
caffe中的SoftmaxLoss层转载 2017-11-05 16:02:09 · 800 阅读 · 0 评论 -
BatchNorm层训练和测试的注意事项
BatchNorm层训练和测试的注意事项原创 2017-11-20 21:56:43 · 8971 阅读 · 0 评论 -
caffe常用层:Reduction层
Layer type: Reduction 头文件位置:./include/caffe/layers/reduction_layer.hpp CPU 执行源文件位置: ./src/caffe/layers/reduction_layer.cpp CUDA GPU 执行源文件位置: ./src/caffe/layers/reduction_layer.cu Reduction层的功能:使用s...转载 2018-08-29 21:36:43 · 5109 阅读 · 0 评论