
keras
小麦粒
我的人生,我做主
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Keras总结
filters:卷积核的数目(即输出的维度)。卷积核的定义:对于输入图像中的一部分区域,进行加权平均的处理,其中这个过程的权重,由一个函数定义,这个函数就是卷积核。kernel_size:卷积核的宽度和长度。如为单个整数,则表示在各个空间维度的相同长度。strides:单个整数或由两个整数构成的list/tuple,为卷积的步长。如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rata均不兼容padding:补0策略,为“valid”, “原创 2019-07-26 15:43:41 · 1159 阅读 · 0 评论 -
keras—VGG16
VGG16共包含:13个卷积层(Convolutional Layer),分别用conv3-XXX表示3个全连接层(Fully connected Layer),分别用FC-XXXX表示5个池化层(Pool layer),分别用maxpool表示其中,卷积层和全连接层具有权重系数,因此也被称为权重层,总数目为13+3=16,这即是VGG16中16的来源。(池化层不涉及权重,因此不属于权重层,不被计数)。原创 2019-08-07 22:49:55 · 8376 阅读 · 1 评论 -
keras—VGG19(一)
总共有很多参数,我们只关心我们需要关注的,W和B在哪里就行了,注意这里还有一个mean(平均值),因为VGG使用了图像预处理方式是 input - mean,当然这种处理方式在现在看来不怎么好,但是现在我们用人家的模型,需要遵照人家的意思.从下面的图看到存储的43个参数注意里面的Relu是没有数据的,因为Relu就是一个函数注意Pool的参数是固定的,因为大小为:[1,2,2,1],步长[1,2,2,1],这里可以自己写,也可以读取参数原创 2019-08-09 08:58:55 · 8700 阅读 · 0 评论 -
ResNet解析(一)架构、概念
ResNet = Residual Network残差网络,2015年由著名的Researcher Kaiming He(何凯明)提出的深度卷积网络,一经出世,便在ImageNet中斩获图像分类、检测、定位三项的冠军。 残差网络更容易优化,并且能够通过增加相当的深度来提高准确率。核心是解决了增加深度带来的副作用(退化问题),这样能够通过单纯地增加网络深度,来提高网络性能。 因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用Re原创 2019-08-08 21:37:34 · 6000 阅读 · 0 评论 -
Inception V1架构详情和卷积池化概念
Inception 架构详情:inception V1 具有22层。包括池化层的话是 27 层,该模型在最后一个 inception 模块处使用全局平均池化,线性输出。原创 2019-08-14 09:21:34 · 3119 阅读 · 2 评论 -
GoogLeNet (一)GoogLeNet的Inception v1到v4的演进
2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构,而GoogLeNet则做了更加大胆的网络结构尝试,虽然深度只有22层,但大小却比AlexNet和VGG小很多,GoogleNet参数为500万个,AlexNet参数个数是GoogleNet的12倍,VGGNet参数又是AlexNet的3倍,因此在内存或计算资源有限时,Go原创 2019-08-10 15:35:15 · 2314 阅读 · 1 评论 -
GoogLeNet (二) Inception 相关概念
文章目录一、原始Inception的基本结构1.1 Filter concatenation1.2 降低特征图厚度演进出V1、V2、V3、V41.3 1x1的卷积核有什么用呢?1.4 搭建Inception网络问题1.5 InceptionV1参数少但是效果好的原因二、Inception 知识点2.1 MLP 多层神经网络2.2 Network In Network 瓶颈层降低网络的计算成本2.3...原创 2019-08-11 14:48:38 · 3884 阅读 · 0 评论 -
GoogleNet、AleXNet、VGGNet、ResNet等总结
ILSVRC(ImageNet大规模视觉识别挑战赛)每年都不断被深度学习刷榜,随着模型变得越来越深,Top-5的错误率也越来越低,目前降低到了3.5%附近,而人类在ImageNet数据集合上的辨识错误率大概在5.1%,也就是目前的深度学习模型识别能力已经超过了人类。原创 2019-08-11 15:21:46 · 12890 阅读 · 0 评论