
DL
文章平均质量分 61
jyli2_11
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
SVM和SoftMax的原理区别对比
出处:http://blog.youkuaiyun.com/han_xiaoyang/article/details/49999583声明:版权所有,转载请注明出处,谢谢。1. 线性分类器在深度学习与计算机视觉系列(2)我们提到了图像识别的问题,同时提出了一种简单的解决方法——KNN。然后我们也看到了KNN在解决这个问题的时候,虽然实现起来非常简单,但是有很大的弊端:分类器必须记住转载 2017-05-24 16:48:24 · 1001 阅读 · 0 评论 -
tensorflow object_detection API使用
作者:何之源链接:https://www.zhihu.com/question/61173908/answer/185074029来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。1. 安装或升级protoc首先需要安装或升级protoc,不然在后面会无法编译。安装/升级的方法是去protobuf的Release界面:google/pro转载 2017-07-19 15:01:36 · 2936 阅读 · 0 评论 -
tensorflow object_dection API错误处理
Ubuntu下使用tensorflow object-detection APIhttps://github.com/tensorflow/models/tree/master/object_detectionhttps://github.com/tensorflow/models/issues/1834https://stackoverflow.com/questions/253原创 2017-07-18 19:32:38 · 3952 阅读 · 4 评论 -
Layer Normalisation
图片来自https://www.zhihu.com/question/48820040中的回答后续补充原创 2017-07-09 19:29:14 · 355 阅读 · 0 评论 -
Tensorflow的Batch Normalization
转自 http://www.jianshu.com/p/0312e04e4e83tensorflow中关于BN(Batch Normalization)的函数主要有两个,分别是:tf.nn.momentstf.nn.batch_normalization关于这两个函数,官方API中有详细的说明,具体的细节可以点链接查看,关于BN的介绍可以参考这篇论文,我来说说自己的理解。不转载 2017-07-09 19:06:22 · 461 阅读 · 0 评论 -
ReLu(Rectified Linear Units)激活函数
转自http://www.cnblogs.com/neopenx/p/4453161.html起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对转载 2017-07-08 11:21:36 · 793 阅读 · 0 评论 -
ICCV 2015 揭开微软152层神经网络的面纱
转自https://mp.weixin.qq.com/s__biz=MzAwMjM3MTc5OA==&mid=402156285&idx=1&sn=13275b8f4ec46c901290c66c6c0ffa28&utm_source=tuicool&utm_medium=referral这几天,关于 ICCV 2015 有一个振奋人心的消息——“微软亚转载 2017-07-29 20:00:16 · 914 阅读 · 0 评论 -
关于Batch Normalization(批归一化)的理解
近期将Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift读了两遍,参考了几篇博客,现将自己的理解总结如下。它的好处:最主要的减少梯度消失,加快收敛速度。然后允许更大的学习率、不需要dropout、减少L2正则、减少扭转图像(其实都是第一个好处带来的)。原创 2017-07-06 20:48:25 · 6631 阅读 · 1 评论 -
Batch Normalization
/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/ author: 张俊林Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷转载 2017-07-06 20:02:05 · 412 阅读 · 0 评论 -
批归一化
Batch Normalization 学习笔记原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by转载 2017-07-05 10:14:16 · 2326 阅读 · 0 评论 -
caffe运行中显示梯度信息
为了显示各层的梯度变化,阅读了此篇博客http://blog.youkuaiyun.com/yihaizhiyan/article/details/44159063但是新版caffe solver.cpp中做了优化,所以函数添加位置有变,在此记录下修改目录 caffe/src/caffe/solver.cpp开头修改如下:#include #include #include原创 2017-07-11 17:30:51 · 1520 阅读 · 2 评论 -
正则
L2L1elastic net(L1+L2)max norm regularizationdropout原创 2017-07-10 21:43:40 · 279 阅读 · 0 评论 -
opencv3.1+cuda8.0+caffe报错
为让TensorFlow和caffe共存将cuda换为8.0 在安装OpenCV时提示如下错误:/home/usrname/opencv-3.1.0/modules/cudalegacy/src/graphcuts.cpp:120:54: error: 'NppiGraphcutState' has not been declaredtypedef NppStatu原创 2017-06-08 10:55:35 · 776 阅读 · 0 评论 -
TensorFlow 报错 failed call to cuDevicePrimaryCtxRetain: CUDA_ERROR_INVALID_DEVICE
今天使用python virtualenv安装TensorFlow gpu版,一直报错各种配置版本按官网来的https://www.tensorflow.org/cuda8.0 cudnn5.1错误如下2017-06-16 13:53:53.632070: W tensorflow/stream_executor/cuda/cuda_driver.cc:523] A non-pri原创 2017-06-16 14:39:37 · 20182 阅读 · 3 评论 -
virtualenv内安装TensorFlow
sudo pip install virtualenv #使用pip或pip3都可以,没啥影响#创建环境,选择你想要的python版本(前提是你的电脑上已经安装好了)virtualenv --system-site-packages --python=python3.5 ~/tensorflow#激活环境cd ~/tensorflowsource bin/activate原创 2017-06-16 09:25:16 · 1539 阅读 · 0 评论 -
Deep learning:五十一(CNN的反向求导及练习)
转自:http://www.cnblogs.com/tornadomeet/p/3468450.html前言: CNN作为DL中最成功的模型之一,有必要对其更进一步研究它。虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好。而本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷积层和下采样层,转载 2017-05-30 16:17:23 · 710 阅读 · 0 评论 -
padding
Convolution Arithmetic为了简化情况,假设输入(input)、特征块(kernel)、补零(padding)以及步长(strides)在不同轴上的长度均相等,分别为i、k、p、s。No zero padding, unit strideso=i−k+1,其中s=1,p=0Zero padding, unit strideso=i−转载 2017-05-27 21:46:45 · 2080 阅读 · 0 评论 -
关于残差网络Resnet的理解
Deep Residual Learning for Image Recognition 这篇论文已很有名参考了大家阅读后的看法http://www.jianshu.com/p/e58437f39f65,也想聊聊自己阅读后的理解 网络深度是影响深度卷积神经网络性能的一大因素,但是研究者发现当网络不断加深时,训练的结果并不好。这不是因为过拟合,因为过拟合的话应该是原创 2017-07-25 20:42:45 · 6034 阅读 · 1 评论