Keras
文章平均质量分 57
AI东海
既要仰望星空,又要脚踏实地,怀着一颗感恩的心出发!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习中三个重要对象(1)------激活函数
1.激活对象 我们在定义网络层时,使用什么激活函数是很重要,通常有两种方法来使用激活函数: 一是单独定义一个激活层 model.add(Dense(64,input_shape=(784,))) model.add(Activation('tanh')) 二是在前置层里面通过激活选项来定义所需的函数原创 2018-01-19 17:18:52 · 1503 阅读 · 0 评论 -
keras 深度模型调参
超参数优化是深度学习中的重要组成部分。其原因在于,神经网络是公认的难以配置,而又有很多参数需要设置。最重要的是,个别模型的训练非常缓慢。 在这篇文章中,你会了解到如何使用scikit-learn python机器学习库中的网格搜索功能调整Keras深度学习模型中的超参数。 阅读本文后,你就会了解: 如何包装Keras模型以便在scikit-learn中使用,以及如何使用网格搜索。 如何网格转载 2018-01-17 11:29:48 · 6214 阅读 · 3 评论 -
词嵌入、句向量等方法汇总
词嵌入、句向量、篇章向量转载 2018-01-17 11:03:39 · 12381 阅读 · 1 评论 -
深度学习DL中优化方法总结
前言(本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。转载 2018-01-19 09:00:05 · 1582 阅读 · 0 评论 -
keras 模型、结构、权重的保存
如何将训练好的网络进行保存,我们可以用pickle或cPickle来保存Keras模型,同时我们可以用下面的方法: 一、保存整个模型 model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含: 模型的结构模型的权重训练配置(损失函数,优化器,准确率等)优化器的状态,以便于从上次训练中断的地方 前提是已经安装python的h5py原创 2018-01-25 16:43:07 · 12593 阅读 · 2 评论 -
基于深度学习分词
深度学习在NLP中的中文分词转载 2018-01-17 16:45:13 · 9026 阅读 · 0 评论 -
深度学习中的三个重要对象(2)-----初始化对象
**在神经网络层激活函数中,我们需要设置初始化,初始化对象用于随机设定网络层激活函数中权重值或偏置项的初始值,包括Kernel_initializer、bias_initializer。好的权重初始化值能帮助加快模型收敛速度。包括以下几种初始化对象:** Zeros,所有参数值都初始化为0。 Ones,所有参数值都初始化为1。 Constant(values=1),将所有参数都原创 2018-01-24 11:15:18 · 369 阅读 · 0 评论 -
Keras 使用一些技巧
我都一直在使用Keras框架,很多时候只是个‘搬砖’的,所以有必要学习一下keras使用技巧。转载 2018-01-31 10:33:17 · 7322 阅读 · 2 评论 -
深度学习CNN的feature map
输入:N0*C0*H0*W0 输出:N1*C1*H1*W1 输出的feature map大小: H1=H0+2×pad−kernel_sizestride+1 W1=W0+2×pad−kernel_sizestride+1 注:当stride为1时,若pad=kernel_size−12,那么经过计算后的feature map大小不变转载 2018-01-22 14:24:58 · 2927 阅读 · 0 评论 -
深度学习中卷积神经网络(CNN)的参数,你真的都熟悉吗?
随着AI的越来越火热,深度学习中神经网络也受大家的热捧,特殊是运用在图片识别等的CNN,然而大多数人初学者会囫囵吞枣的运用CNN,对于里面的隐含层参数多少、神经元个数多少有这真的熟悉吗? 下面我们一起来了解其中的秘密吧! 首先,我们要熟悉滤波器、卷积层构造等基本知识,特别是滤波器:核的大小和种类。 比如ConV2D(filter,kernel_size,stride原创 2018-01-22 13:35:20 · 7272 阅读 · 0 评论 -
attention简单实现
keras还没有官方实现attention机制,有些attention的个人实现,在mnist数据集上做了下实验。模型是双向lstm+attention+dropout,话说双向lstm本身就很强大了。 参考链接:https://github.com/philipperemy/keras-attention-mechanism https://github.com/keras-team/kera转载 2018-04-11 10:30:03 · 10190 阅读 · 6 评论
分享