
深度学习通用策略
文章平均质量分 74
BigCowPeking
追求卓越,永不放弃
展开
-
faster-RCNN算法原理详解
faster-RCNN算法原理详解转载 2017-07-30 17:58:21 · 16936 阅读 · 1 评论 -
CenterLoss的caffe实现
CenterLoss的caffe实现转载 2017-09-18 21:54:01 · 874 阅读 · 0 评论 -
深度学习:模型参数调优
深度学习:模型参数调优转载 2017-12-09 09:42:51 · 4158 阅读 · 0 评论 -
深度学习调参:简短的注意事项
深度学习调参:简短的注意事项转载 2017-12-01 21:09:27 · 744 阅读 · 0 评论 -
模型调参:绘制loss曲线图
模型调参:绘制loss曲线图转载 2017-12-01 21:29:06 · 28869 阅读 · 3 评论 -
模型调参:超参调节tips总结
模型调参:tips总结转载 2017-12-01 21:40:18 · 6540 阅读 · 0 评论 -
模型调参:分步骤的提升模型的精度
模型调参:分步骤的提升模型的精度转载 2017-12-01 22:14:11 · 19000 阅读 · 0 评论 -
人脸检测:Bounding box Regression详解
边界回归的详解,还是看这个原版的吧!转载 2017-07-23 16:46:58 · 1734 阅读 · 0 评论 -
深度学习通用策略:Soft-NMS算法实现
一篇讲通过改进NMS来提高检测效果的论文。文章链接: 《Improving Object Detection With One Line of Code》Github链接: https://github.com/bharatsingh430/soft-nmsMotivation绝大部分目标检测方法,最后都要用到 NMS-非极大值抑制进行后处理。 通常的做法是将检测框转载 2018-01-06 22:10:47 · 3827 阅读 · 0 评论 -
caffe:测试每一层的时间
caffe测试时间:每一层的时间我用的是ubuntu的caffe。在caffe的目录下在terminal中运行以下命令用以测试已经训练好的caffemodel的accuracy:(或者将以下命令放在.sh文件中运行)./build/tools/caffe test --model=./examples/mnist/lenet_train_test.proto转载 2018-02-04 14:11:02 · 2789 阅读 · 0 评论 -
SqueezeNet网络的OHEM
SqueezeNet网络的OHEM原创 2017-08-13 15:40:40 · 946 阅读 · 0 评论 -
深度学习通用策略:SGD优化方法总结
转载:https://zhuanlan.zhihu.com/p/22252270(标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。SGD此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochastic gradient descent...转载 2018-03-08 21:41:53 · 7578 阅读 · 1 评论 -
深度学习通用技巧:caffe调参技巧总结
Must Know Tips/Tricks in Deep Neural Networks Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computational models that are composed of multiple processing layers to lear...转载 2018-02-21 21:29:22 · 1364 阅读 · 0 评论 -
深度学习网络设计:十大拍案叫绝的卷积设计操作
卷积的十大拍案叫绝的操作一、卷积只能在同一组进行吗?– Group convolutionGroup convolution 分组卷积,最早在AlexNet中出现,由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一个GPU处理,因此作者把feature maps分给多个GPU分别进行处理,最后把多个GPU的结果进行融合。AlexNet分组卷积的思想影响比较深远,当前一些轻量级的S...转载 2017-12-09 09:21:50 · 6944 阅读 · 2 评论 -
深度学习剖根问底: Adam优化算法的由来
转载:https://zhuanlan.zhihu.com/p/27449596?utm_source=weibo&utm_medium=social在调整模型更新权重和偏差参数的方式时,你是否考虑过哪种优化算法能使模型产生更好且更快的效果?应该用梯度下降,随机梯度下降,还是Adam方法?这篇文章介绍了不同优化算法之间的主要区别,以及如何选择最佳的优化方法。什么是优化算法?优化算法的功能,...转载 2018-04-14 11:27:23 · 5581 阅读 · 0 评论 -
深度学习通用策略:SGD, weight decay, momentum, normalization含义理解
1. weight decay(权值衰减)的使用既不是为了提高你所说的收敛精确度也不是为了提高收敛速度,其最终目的是防止过拟合。在损失函数中,weight decay是放在正则项(regularization)前面的一个系数,正则项一般指示模型的复杂度,所以weight decay的作用是调节模型复杂度对损失函数的影响,若weight decay很大,则复杂的模型损失函数的值也就大。2. mome...原创 2018-04-05 11:08:49 · 12605 阅读 · 0 评论 -
centerloss的论文解读
centerloss的论文解读转载 2017-09-18 22:02:36 · 2183 阅读 · 1 评论 -
BatchNorm层训练和测试的注意事项
BatchNorm层训练和测试的注意事项原创 2017-11-20 21:56:43 · 8971 阅读 · 0 评论 -
PVAnet目标检测注意点
PVAnet目标检测注意点原创 2017-10-31 18:30:56 · 969 阅读 · 0 评论 -
Face Faster RCNN安装步骤和遇到的问题
face FasterRCNN的安装步骤,训练和测试的过程原创 2017-07-25 18:45:48 · 2662 阅读 · 0 评论 -
SPP-net网络简介
SPP-net网络简介转载 2017-08-13 21:35:04 · 2542 阅读 · 0 评论 -
RCNN系列讲解
RCNN系列讲解转载 2017-08-13 21:45:49 · 913 阅读 · 0 评论 -
区域推荐网络RPN
区域推荐网络RPN转载 2017-08-13 21:53:32 · 26903 阅读 · 5 评论 -
caffe中的注意点和理解点
1:在caffe中最后输出的loss是smooth之后的loss,平均了过去N次的loss,在solver中可以设置,把这个值设为iter = 1,就会只输出当前迭代的loss.原创 2017-08-27 11:49:10 · 884 阅读 · 0 评论 -
OHEM算法论文理解
OHEM层转载 2017-09-22 21:44:56 · 4428 阅读 · 0 评论 -
目标检测综述
目标检测转载 2017-09-22 21:57:42 · 7407 阅读 · 0 评论 -
深度学习调优深度学习模型
深度学习调优转载 2017-09-25 21:50:34 · 6178 阅读 · 1 评论 -
caffe中添加Python层
caffe中添加Python层转载 2017-09-27 19:21:42 · 1988 阅读 · 1 评论 -
hole algorithm增强卷积的视野
hole algorithm增强卷积的视野转载 2017-10-11 21:42:59 · 1935 阅读 · 3 评论 -
caffe中Python层的使用
caffe中Python层的使用转载 2017-10-11 21:45:16 · 595 阅读 · 0 评论 -
ResNet残差网络的理解
残差网络理解转载 2017-10-22 09:39:52 · 7101 阅读 · 0 评论 -
bounding box voting
bounding box voting原创 2017-10-12 21:38:52 · 2118 阅读 · 4 评论 -
Inception网络理解
Inception网络的理解 第一张图是论文中提出的最原始的版本,所有的卷积核都在上一层的所有输出上来做,那5×5的卷积核所需的计算量就太大了,造成了特征图厚度很大。为了避免这一现象提出的ince原创 2017-10-22 13:49:23 · 8421 阅读 · 0 评论 -
CNN卷积网络设计的理解点
CNN网络设计的理解点原创 2017-10-22 14:20:55 · 738 阅读 · 0 评论 -
深度学习通用策略:BN原理详解以及优势
今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节。 这次先讲Google的这篇《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》,主要是因为这里面的思想比较有普适性,而且一直...转载 2018-04-18 22:09:20 · 8450 阅读 · 0 评论