
CaffeLayer
文章平均质量分 90
AIHGF
完美一切 一切完美
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文阅读学习 - Center Loss: Caffe 实现
Center Loss - Caffe实现原创 2017-11-16 13:08:48 · 2509 阅读 · 0 评论 -
Caffe Loss层 - SoftmaxWithLossLayer
Caffe Loss层 - SoftmaxWithLossLayer可以分解为 SoftmaxLayer + MultinomialLogisticLoss 层的组合,不过其梯度计算更加数值稳定. 测试时,该网络层可以由 SoftmaxLayer 层代替.原创 2018-05-02 14:25:53 · 1664 阅读 · 0 评论 -
论文阅读理解 - Dilated Convolution
Dilated Convolution[Paper]: Multi-scale Context Aggregation by Dilated Convolutions [Caffe-Code]1. Caffe 中的定义Dilated Convolution 已经可在 Caffe 官方的卷积层参数中定义.message ConvolutionParameter { /...原创 2017-09-12 17:21:57 · 11383 阅读 · 1 评论 -
Caffe Vision 层 - 卷积层 ConvLayer
Caffe Vision 层 - 卷积层 ConvLayerCaffe 的视觉层一般采用 images 作为输入,输出另一种 images. 也可以是其它类型的数据和维度.images 可以是单通道 (1 channel) 的灰度图,也可以是三通道(3 channel) 的 RGB 彩色图片.视觉层一般是对输入 images 的特定区域进行特定处理,得到特定区域对应的输出区域,如 Co...原创 2018-02-01 15:56:18 · 1969 阅读 · 0 评论 -
Caffe Loss 层 - SigmoidCrossEntropyLoss 推导与Python实现
Caffe Loss 层 - SigmoidCrossEntropyLoss 推导与Python实现[原文 - Caffe custom sigmoid cross entropy loss layer].很清晰的一篇介绍,学习下.1. Sigmoid Cross Entropy Loss 推导Sigmoid Cross Entropy Loss 定义形式:L=tln(P)...翻译 2018-02-05 13:21:22 · 5356 阅读 · 7 评论 -
Caffe Loss层 - SigmoidCrossEntropyLossLayer
Caffe Loss层 - SigmoidCrossEntropyLossLayer1. SigmoidLayer非线性激活函数——Sigmoid:y=(1+exp(−x))−1=11+exp(−x)y=(1+exp(−x))−1=11+exp(−x)y = (1+exp(-x))^{-1} = \frac{1}{1+exp(-x)}该激活函数随着值远离 0 ,会出现梯度消...原创 2017-08-14 14:54:39 · 2842 阅读 · 0 评论 -
Caffe Loss 层 - LossLayers
Caffe Loss 层Loss 计算的是网络输出的 target 值与真实label之间的误差,最小化以优化网络. Loss 值由 forward-pass 计算得到,并在 backward-pass 计算关于 loss 的梯度值.Caffe 主要提供了以下 Loss 层:1. SoftmaxWithLoss用于一对多(one-of-many) 的分类任务,计算多项 lo...原创 2018-01-24 21:42:10 · 3400 阅读 · 1 评论 -
Caffe Data层 - ImageDataLayer
Caffe Data 层 - ImageDataLayerCaffe 官方提供的直接从 image 文件读取图像数据及对应label.1. 数据格式及 prototxt 定义数据格式为:# train.txt001.jpg 1002.jpg 2003.jpg 3网络层定义:# train_val.prototxtlayer { name: "da...原创 2017-08-25 15:50:25 · 5950 阅读 · 4 评论 -
Caffe源码 - inner_product_layer 全连接层
Caffe - 全连接层 inner_product_layer图像分类中,网络结构的最后一般有一个或多个全连接层.全连接层的每个节点都与其上层的所有节点相连,以综合前面网络层提取的特征. 其全连接性,导致参数较多.全连接层将卷积的 2D 特征图结果转化为 1D 向量.如 MNIST:最后两层为全连接层,在pooling 层后,转化为 1D 的 1*100 长度的向量....原创 2018-01-12 15:14:05 · 2193 阅读 · 0 评论 -
Caffe 源码 - BatchNorm 层与 Scale 层
batch norm layer & scale layer简述Batch Normalization 论文给出的计算:前向计算:后向计算:BatchNorm 主要做了两部分:[1] 对输入进行归一化,xnorm=x−μσxnorm=x−μσx_{norm} = \frac{x - \mu}{\sigma},其中, μμ\mu 和 σσ\sigma 是...原创 2017-12-19 15:37:27 · 18575 阅读 · 1 评论 -
目标检测 - Faster R-CNN 训练过程源码理解
Faster R-CNN 训练过程源码理解训练脚本 ./tools/train_net.py 主函数开始. 数据读取层 RoIDataLayer原创 2017-12-02 15:04:10 · 3565 阅读 · 1 评论 -
Caffe Loss 层 - Lifted Struct Similarity Softmax Layer
Caffe Loss - Lifted Struct Similarity Softmax LayerLoss Layer From Deep-Metric-Learning-CVPR16.1. 在 prototxt 中的定义layer { name: "fc_embedding" type: "InnerProduct" bottom: "pool_ave" ..原创 2017-11-18 14:38:33 · 1264 阅读 · 0 评论 -
Caffe源码 - SegAccuracyLayer
SegAccuracyLayer语义分割原创 2017-06-06 17:47:16 · 2375 阅读 · 0 评论 -
Caffe源码 - SoftmaxWithLossLayer
Softmax with Loss Layer网络层 type: SoftmaxWithLossDoxygen Documentation头文件: ./include/caffe/layers/softmax_loss_layer.hppCPU 代码: ./src/caffe/layers/softmax_loss_layer.cppCUDA GPU 代码: ./src/caffe/lay原创 2017-06-13 13:34:26 · 2704 阅读 · 0 评论 -
Caffe Loss层 - HingelossLayer
HingelossLayer计算 one-of-many 分类任务的 hinge loss.Hinge Loss 概念定义为: E(z)=max(0,1−z)E(z)=max(0,1−z)E(z) = max(0, 1-z) 常用在SVM的最大化间隔分类中. 对于期望输出t=+1,−1t=+1,−1t={+1,-1}和分类器分yyy, 预测值yyy的 hinge...原创 2017-08-01 15:41:09 · 1711 阅读 · 0 评论 -
Caffe源码 - RoI Pooling 层
RoI Pooling 层原创 2017-10-24 15:25:26 · 4914 阅读 · 2 评论 -
CaffeLoss - FocalLossLayer
原文: CaffeLoss - FocalLossLayer - AIUAIGithub - focal_loss_layerFocal Loss 论文理解及公式推导 - AIUAI基于 SoftmaxWithLossLayer 实现的 FocalLossLayer.主要涉及四个文件:caffe.protofocal_loss_layer.hppfocal_loss_layer...原创 2018-10-31 20:23:52 · 1796 阅读 · 0 评论