
Keras
文章平均质量分 76
lawme
这个作者很懒,什么都没留下…
展开
-
听它爹说他孩儿:Keras 学习笔记 1
《Deep Learning with Python》,叫这名儿的书有好几本。我正在读的这本作者是 François Chollet ,深度学习程序库 Keras 的老爹,也是 TensorFlow 的营造者。先大致看了第一章,这本书的写法很合我意,它用代码说事儿,不扯数学理论。作者说,他特意这样做,一是为了没有数学背景的读者,二是因为用代码和文字解说,也能说清深度学习。看来,作者是真正明白深度学...原创 2018-03-25 04:41:39 · 494 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 5.1
机器学习基础现在进入本书的第四章。本章内容包括:超越分类和回归的其他机器学习方式机器学习模型的正规评估程序深度学习数据的预处理特征工程过度拟合的处理处理机器学习问题的通用流程机器学习的四个分支监督学习。当前深度学习的应用几乎全是这一类型。非监督学习。其中,降维和聚类是很有名的。自监督学习。标签是启发算法根据输入的数据自动生成,不是人们提供。强化学习。例如围棋程序 AlpahGo。评估机器学习模型把...翻译 2018-04-30 08:29:15 · 469 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 4.5
预测房价:回归的范例机器学习问题的另一种类型是回归。回归预测的对象是连续值而非离散的标签。例如,用气象数据预测明天的气温;或者,根据详细计划书预测软件工程的完工日期。波士顿房屋价格数据集你将尝试预测房屋的中位价。数据点包括:1970 年代中期,在波士顿郊区,犯罪率,当地财产税率等。数据集只有 506 个数据点,并分成 404 个训练样本和 102 个测试样本。输入数据的特征,例如犯罪率,数值的变化...翻译 2018-04-28 07:13:39 · 791 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 6.1
本书第六章:文本和序列的深度学习本章内容包括:将文本数据转化成可用的表达方式运用循环神经网络运用一维卷积神经网络本章探索处理文本、时间等序列数据的深度学习模型。文本,可以理解为单词或字符的序列。深度学习有两个处理序列的基础算法,一是循环神经网络,二是一维卷积神经网络。一维卷积神经网络是二维卷积神经网络的变种。我们将在本章讨论这两种方法。 两个算法的应用如下:文档分类和时间序列数据分类,例如,认定文...翻译 2018-05-25 06:33:27 · 965 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 5.2
过度拟合与欠缺拟合克服过度拟合的过程叫做正则化。让我们仔细看看最普通的正则化技术,以及它们的实际应用:本笔记 4.3 电影评论分类的改进。减小网络尺寸防止过度拟合最简单的办法是减小网络尺寸,即减少模型可学习参数的数目。决定模型参数数目的,是层的数目和每层单元的数目。模型的参数越多,存储容量越大,表示训练样本及其目标影射关系的词典性能越好。例如,具有 500,000 二值参数的模型,可以轻松学会 M...翻译 2018-05-25 03:12:20 · 593 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 4.4
新闻分类:多个类别的分类范例本节,你将搭建网络把路透社的新闻按主题区分成 46 个不同类,每个数据点只能归入一个类别,因此,这种问题叫做单标签、多类别的分类。如果每个数据点可以属于多个类别(即主题),你所面临的问题就成了多标签、多类别的分类。路透社数据集这个数据集是路透社1986年推出的、由短新闻及其分类主题构成的。它是个简单的、广泛用于文本分类的玩具级数据集。它有 46 个不同主题,每个...翻译 2018-04-25 08:46:34 · 598 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 3.3
神经网络的传动器:张量操作(运算)深度学习神经网络转化数据的功能,可以简化成对数字数据张量极少的几个操作。例如,张量的加法、乘法等。Keras 层的实例是这个样子:keras.layers.Dense(512, activation='relu')层可看成函数,它输入一个 2 维张量,输出另外一个 2 维张量。输出的张量是对输入张量的重新表示。这个函数如下所示:output = relu(dot(...翻译 2018-04-02 07:12:23 · 580 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 3.2
神经网络的数据表示在前面的范例中,Numpy 保存数据的多维数组,也叫做“张量”。当前机器学习系统都以张量为基本数据结构。张量是数据的容器,而数据几乎全是数字类型的,所以,张量是数字的容器。张量是任意维度矩阵的产物。注意,在张量的语境中,维度常称为“轴”(axis)。标量(零维度的张量)可以用 Numpy 标量的属性 ndim 显示它的轴数。张量的轴数又叫它的等级(rank)。例如:>>...翻译 2018-03-29 05:59:20 · 607 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 4.3
对电影评论进行分类:二分法的范例把一批数据分成两类,可能是机器学习应用最为广泛的分类方法。因特网电影数据库( IMDB )的数据集该数据集有 50,000 条影评,训练与测试各用 25,000 条,而正面与负面评价各占 50 %。与数据集 MNIST 相伴,IMDB 数据集也被打包进 Keras。影评已经预处理,文字序列转换成为数字序列,每个数字表示字典中的一个单词。下面的代码首次运行,会把约 8...翻译 2018-04-19 06:29:21 · 1247 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 4.2
Keras 简介Keras 拥有以下重要功能:代码可在 CPU 和 GPU 上同样运行。用户喜欢的 API 可以快速构建深度学习原型。内建机制支持卷积网络(用于计算机视觉),循环网络(用于处理序列)和上述二者的任何组合。支持任意网络架构:多个输入或多个输出的模型,层共享,模型共享,等等。Keras 拥有超过 200,000 的用户,其中大公司有 Google, Netflix, Uber, CER...翻译 2018-04-11 07:01:32 · 438 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 4.1
神经网络入门这是《Deep Learning with Python》第 3 章的学习笔记。本章内容包括:神经网络的核心部件Keras 简介搭建深度学习工作站用神经网络解决基本分类和回归问题你已经知道,神经网络的训练涉及如下东西:组合到网络(或模型)中的层输入的数据及其对应的目标损失函数,反馈信号用于学习优化器,决定如何进行学习层:深度学习的建筑构件层是神经网络的基本数据结构。层是数据处理模块,层...翻译 2018-04-10 15:58:51 · 473 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 3.4
神经网络的驱动器(引擎):基于梯度的优化如前所见,我们首个神经网络的各层这样来转化数据:output = relu(dot(W, input) + b)在此, W 和 b 是张量,是层的属性。它们被叫做层的权重或者可训练的参数。权重 W 是核心属性,b 是偏置属性。权重包含的信息,用于网络训练数据的学习。起初,权重矩阵填充的是些微小的随机数,叫做随机初始化。当然,在 W 和 b 是随机数时,不能指...翻译 2018-04-10 08:09:59 · 573 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 3.1
神经网络的数学构件这是《Deep Learning with Python》第2章的学习笔记。首先说明一下,本书的学习笔记,是对知识要点的摘译,不是逐字逐行的全译。任何一本技术书对于特定读者,都是有干货(有用的)也有水货(没用的)。希望尽量挤掉水分,把对我有用的记下来。本章内容是:神经网络的第一个范例张量与张量的操作神经网络通过反向传播与梯度下降进行学习本章讲述张量和梯度下降等新概念。一定要注意,...翻译 2018-03-27 05:38:55 · 708 阅读 · 0 评论 -
听它爹说他孩儿:Keras 学习笔记 2
本书有30多个范例,帮你学会解决具体问题。这些范例开发工具,用的是 Keras 及其底层 TensorFlow。你将学会使用 Keras 处理实际问题,如机器视觉、自然语言、图像分类、时间序列预测、情绪分析、图像和文本生成等。Keras 的老家在 https://keras.io 本书范例代码在 https://github.com/fchollet/deep-learning-with-pyth...翻译 2018-03-25 09:24:49 · 716 阅读 · 0 评论 -
『深度學習與圍棋遊戲』筆記 1
最近,搞到一本書 Deep Learning and the Game of Go 。歐美書商好像有種習慣,科技方面尤其編程相關的電子書,銷售一段時間後會公開放到網上,供人免費下載。這本書就來源於此。估計,有社會資本支持書商的善舉。希望國內資本雄厚的企業,向西方學習,鼓勵支持國內書商也這樣做。這本書分為3篇14章及5個附錄。第一篇:基礎第1章, 簡明扼要地介紹人工智能、機器學習、深度學習...翻译 2019-04-11 06:22:56 · 663 阅读 · 0 评论