
ML
wawayang123
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
One weird trick for parallelizing convolutional neural networks 论文笔记
观察: 1、卷积层占据整个网络训练计算量的90-95%,但其中有大约5%的参数 2、全连接层占据这个网络计算量的5-10%,但其中大约95%的参数 针对这个特点,设计两个并行的模型 ...原创 2018-10-26 10:57:24 · 335 阅读 · 0 评论 -
ImageNet Classification with Deep Convolutional Neural Networks 论文笔记
AlexNet论文笔记 一、Alexnet综述:AlexNet有五层网络,6千万个参数,65万个神经元,运用3个全连接层处理,1个最大值池化层,并运用“dropout”的正则化方法防止过拟合。 二、数据集:不做任何预处理的ILSVRC数据集,下采样至256x256大小的原生图片。 三、架构:如图所示 3.1、包含8层网络,其中5层卷积层,3层全连接层; 3.2、创造性的选用Relu激...原创 2018-10-30 10:15:17 · 332 阅读 · 0 评论 -
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-S CALE IMAGE RECOGNITION-论文笔记
VGG网络 一、VGG网络概述:本文的主要贡献是利用3X3的卷积核,把神经网络发展成为16-19层的权重网络,相比AlexNet更加深。并在机器视觉领域取得一定的成功 二、卷积层配置 受到前人的启发,所有的卷积层配置按照相同的原则进行。 2.1 架构 训练集上: 输入层:224x224x3 唯一的预处理是原图减去RGB图像上的均值;图像输入经过一大堆的3x3的步长为1的卷积核过后接2...翻译 2018-11-01 17:18:30 · 254 阅读 · 0 评论