
keras
keras
Clark_Xu
重新出发,拥抱变化
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Keras系列之入门
作者:只为自己熟悉和理解技术文档,记录笔记所用 Sequential 顺序模型: 顺序模型是多个网络层的线性堆叠,1.创建模型: (1)讲网络层实列传递给Sequential的构造器,来创建模型 from keras.models import Sequential from keras.layers import Dense, Activation model = Sequential(...原创 2019-01-24 21:58:36 · 366 阅读 · 0 评论 -
Keras系列之文本向量化
作者:《python深度学习》学习笔记,用于自己熟悉和理解 目录 1.实现单词级的one-hot编码:稀疏,高维,硬编码 2.使用词嵌入word embeding:密集,低维,学习得到 2.1 方法一:利用 Embedding 层学习得来 2.2 方法二: 使用预训练的词嵌入 参考 深度学习模型不会接收原始文本作为输入,它只能处理数值张量。文本向量化(vectorize)是指将文本转...原创 2019-01-25 04:26:11 · 1970 阅读 · 0 评论 -
Keras系列之使用预训练词嵌入
作者:《python深度学习》学习笔记,用于自己熟悉和理解 接着上篇的 《Keras系列之文本向量化》 使用预训练的词嵌入,在数据集较小的情况下,难以学习到足够好的embedding层,选择一些权威的官方词嵌入数据库能够有效解决数据集的问题。话不多说,例子如下,在书上代码基础上进行改进和添加注释,适合小白。 IMDB数据集:http://mng.bz/0tIo, glove词嵌入文件:htt...原创 2019-01-28 21:20:21 · 3119 阅读 · 1 评论 -
Keras系列之LSTM和GRU实践
作者:《python深度学习》学习笔记,用于自己熟悉和理解 目录 1. LSTM实践 2.GRU实践 3.循环神经网络的高级用法 3.1 循环 dropout(recurrent dropout) 3.2 堆叠循环层(stacking recurrent layers) 3.3 双向循环层(bidirectional recurrent layer) 3.4 更多尝试...原创 2019-01-29 23:55:52 · 11772 阅读 · 6 评论 -
Keras系列之卷积神经网络处理序列
作者:《python深度学习》学习笔记,用于自己熟悉和理解 目录 1.背景 2.序列数据的一维卷积 3.序列数据的一维池化 4.一维卷积神经网络的实现 5.结合 CNN 和 RNN 来处理长序列 5.1 一维卷积神经网络的缺点 5.2 结合的优点 5.3 实现结合一维卷积基和 GRU 层的模型 1.背景 卷积神经网络在计算机视觉领域表现优异,同样也让它对序列处理特别有效。时...原创 2019-01-30 02:41:13 · 3108 阅读 · 0 评论