使用TensorFlow的基本步骤

学习任务

学习使用TensorFlow,并以california的1990年的人口普查中的城市街区的房屋价值中位数作为预测目标,使用均方根误差(RMSE)评估模型的准确率,并通过调整超参数提高模型的准确率

设置

加载必要的库+数据导入以及一些简单的处理

加载必要库

  1. import math

  2. # display模块可以决定显示的内容以何种格式显示

  3. from IPython import display

  4. # matplotlib为python的2D绘图库

  5. # cm为颜色映射表

  6. from matplotlib import cm

  7. # 使用 GridSpec 自定义子图位置

  8. from matplotlib import gridspec

  9. # pyplot提供了和matlab类似的绘图API,方便用户快速绘制2D图表

  10. from matplotlib import pyplot as plt

  11. # numpy为python的科学计算包,提供了许多高级的数值编程工具

  12. import numpy as np

  13. # pandas是基于numpy的数据分析包,是为了解决数据分析任务而创建的

  14. import pandas as pd

  15. # sklearn(scikit-_learn_)是一个机器学习算法库,包含了许多种机器学习得方式

  16. # * Classification 分类

  17. # * Regression 回归

  18. # * Clustering 非监督分类

  19. # * Dimensionality reduction 数据降维

  20. # * Model Selection 模型选择

  21. # * Preprocessing 数据预处理

  22. # metrics:度量(字面意思),它提供了很多模块可以为第三方库或者应用提供辅助统计信息

  23. from sklearn import metrics

  24. # tensorflow是谷歌的机器学习框架

  25. import tensorflow as tf

  26. # Dataset无比强大得数据集

  27. from tensorflow.python.data import Dataset

  28.  
  29. tf.logging.set_verbosity(tf.logging.ERROR)

  30. # 为了观察数据方便,最多只显示10行数据

  31. pd.options.display.max_rows = 10

  32. pd.options.display.float_format = '{:.1f}'.format

加载数据集

california_housing_dataframe = pd.read_csv("https://storage.googleapis.com/mledu-datasets/california_housing_train.csv", sep=",")

为了防止数据集中出现病态排序,先对数据进行随机化处理,此外并将median_house_value 调整为以千为单位,这样更符合现实生活中的习惯,并且模型就能够以常用范围内的学习速率较为轻松地学习这些数据。

  1. //california_housing_dataframe.index原始序列集索引

  2. //np.random.permutation()随机打乱原索引顺序

  3. //california_housing_dataframe.reindex()以新的索引顺序重新分配索引

  4. california_housing_dataframe=california_housing_dataframe.reindex(np.random.permutation(california_housing_dataframe.index))

  5. california_housing_dataframe["median_house_value"] /= 1000.0

  6. california_housing_dataframe

 longitudelatitudehousing_median_agetotal_roomstotal_bedroomspopulationhouseholdsmedian_incomemedian_house_value
14836-122.237.526.01777.0555.01966.0497.03.0211.0
13475-122.037.121.02387.0357.0913.0341.07.7397.7
3391-117.933.727.01596.0297.01703.0289.04.1184.9
4108-118.033.834.01038.0175.0578.0174.04.9200.0
1901-117.332.744.01934.0325.0783.0316.04.9358.6
..............................
7731-118.434.044.01913.0441.01295.0432.04.0266.4
4008-118.034.120.02063.0496.01573.0468.03.2157.1
1612-117.233.66.013724.02269.05860.01986.04.0183.0
6593-118.334.046.01098.0426.01510.0374.02.1156.3
9219-119.134.452.01409.0359.0981.0304.02.8199.3

17000 rows × 9 columns

检查数据

目的是为了在使用之前对数据有一个初步的了结

california_housing_dataframe.describe()//输出关于各列的一些实用统计信息快速摘要:样本数、均值、标准偏差、最大值、最小值和各种分位数
longitudelatitudehousing_median_agetotal_roomstotal_bedroomspopulationhouseholdsmedian_incomemedian_house_value 
count17000.017000.017000.017000.017000.017000.017000.017000.017000.0
mean-119.635.628.62643.7539.41429.6501.23.9207.3
std2.02.112.62179.9421.51147.9384.51.9116.0
min-124.332.51.02.01.03.01.00.515.0
25%-121.833.918.01462.0297.0790.0282.02.6119.4
50%-118.534.229.02127.0434.01167.0409.03.5180.4
75%-118.037.737.03151.2648.21721.0605.24.8265.0
max-114.342.052.037937.06445.035682.06082.015.0500.0

构建第一个模型

本次练习,我们将尝试预测 median_house_value(每个街区的房屋价值的中位数),它将是我们的标签(有时也称为目标target)。我们将使用 total_rooms (每个街区的房间总数)作为输入特征。

为了训练模型,我们将使用 TensorFlow Estimator(一种评估器) API 提供的 LinearRegressor 接口。此 API 负责处理大量低级别模型搭建工作,并会提供执行模型训练、评估和推理的便利方法。

estimator(估计量) 统计学中estimator是基于观测数据计算给定量的估计值的规则,即通过给定的一些example,通过一定的规则,计算给出预测值。
在tensoflow中其是 tf.Estimator 类的一个实例,用于封装负责构建 TensorFlow 图并运行 TensorFlow 会话的逻辑,是处于最顶层的面向对象的高级api

LinearRegressor 线性回归,可以理解为 通过训练得出一条逼近example的线

工具包说明
Estimator (tf.estimator)高级 OOP API。
tf.layers/tf.losses/tf.metrics用于常见模型组件的库。
TensorFlow低级 API

以下是构建模型的步骤

第 1 步:定义特征并配置特征列


为了将我们的训练数据导入 TensorFlow,我们需要指定每个特征包含的数据类型。在本练习及今后的练习中,我们主要会使用以下两类数据:

  • 分类数据:一种文字数据。在本练习中,我们的住房数据集不包含任何分类特征,但您可能会看到的示例包括家居风格以及房地产广告词。
  • 数值数据:一种数字(整数或浮点数)数据以及您希望视为数字的数据。有时您可能会希望将数值数据(例如邮政编码)视为分类数据(我们将在稍后的部分对此进行详细说明)。
当我们有了example以后,其通常包含许多特征,比如本次例子中的housing_median_age , total_rooms等,在之后为了更好的处理对应特征的对应数据,我们选择先给这些特征分个类,而经过前辈的验证发现主要是使用 分类数据数值数据,比如人的性别这个特征可以看成分类数据,男女在对枪战游戏的喜爱程度上,就得分开站队了,所以这时候,这样得分类数据很有意义,而像考试某门考试分数这个特征还是数值数据更合理啦

在 TensorFlow 中,我们使用一种称为“特征列”的结构来表示特征的数据类型。特征列仅存储对特征数据的描述;不包含特征数据本身。

意义以及解释在代码注释中

一开始,我们只使用一个数值输入特征 total_rooms。以下代码会从 california_housing_dataframe 中提取 total_rooms 数据,并使用 numeric_column 定义特征列,这样会将其数据指定为数值:


  1. # Define the input feature: total_rooms.

  2. # 取数据集中得'total_rooms'这一列作为输入特征

  3. my_feature = california_housing_dataframe[["total_rooms"]]

  4.  
  5. # Configure a numeric feature column for total_rooms.

  6. # 将一个名叫"total_rooms"的特征列定义为**数值数据** ,这样的定义结果存在feature_columns中

  7. # 即上文所说得**特征列**中,这时候特征列其实只是一个存储了分类信息的集合,具体使用的时候需要

  8. # 特征集合和特征列结合起来,分类器才能识别的呢

  9. feature_columns = [tf.feature_column.numeric_column("total_rooms")]


注意total_rooms 数据的形状是一维数组(每个街区的房间总数列表)。这是 numeric_column 的默认形状,因此我们不必将其作为参数传递。


第 2 步:定义目标


接下来,我们将定义目标,也就是 median_house_value。同样,我们可以从 california_housing_dataframe 中提取它:


  1. # Define the label.

  2. # 将"median_house_value"列的数据从数据集中取出作为target,这就是我们搭建的模型所要学习的东# 西

  3. targets = california_housing_dataframe["median_house_value"]

第 3 步:配置 LinearRegressor


接下来,我们将使用 LinearRegressor 配置线性回归模型,并使用 GradientDescentOptimizer(它会实现小批量随机梯度下降法 (SGD))训练该模型。learning_rate参数可控制梯度步长的大小。


  • 梯度 (gradient):偏导数相对于所有自变量的向量。在机器学习中,梯度是模型函数偏导数的向量。梯度指向最速上升的方向。
  • 梯度下降法 (gradient descent):一种通过计算并且减小梯度将损失降至最低的技术,它以训练数据为条件,来计算损失相对于模型参数的梯度。通俗来说,梯度下降法以迭代方式调整参数,逐渐找到权重和偏差的最佳组合,从而将损失降至最低。

上面的术语解释读起来比较抽象,并且为了防止文章篇幅过长,看了上面忘了下面,所以模型的实现过程放在遇到问题在下面解释

  • 下图显示了机器学习算法用于训练模型的迭代试错过程

图片

输入特征=>模型预测=>根据结果计算一下损失(损失就是距离target的差距),然后将参数更新,再放回模型中预测,直至收敛,使得损失变得最小,这时候的参数就是我们想要的参数

  • 下图是上图中"计算参数更新"的绿框中的内容

图片

假设我们能够将所有种可能情况全都计算一遍,那么得到的一定是一个类似于这样的碗状图,在其中必定有一点是损失最低的点,但是现实种我们肯定不会有那么大的计算能力和时间去计算出每个结果,我们通常采用一种叫做梯度下降法的方式来"快速"的找到损失最低的点(梯度下降法属于一种优化算法,虽然并不是最好的优化算法,但是其方式简单,应用也很多)。

  • 起点是随意选定的,因为在预测的开始时,没有人知道权重(w1,w2,w3..b)该是什么,可以设置为0,也可以设置为1,无所谓。通过模型一次计算,计算得出损失(这时候损失并不重要,肯定极大,没有参考意义),然后计算起点处的偏导数(如果只有一个权重那就是导数了),得出起点处的偏导数,而梯度是偏导数的矢量(即包含了此处偏导数的方向大小),可以想象一下抛物线y=ax²+bx+c 在x0处的导数,其大小的绝对值是随着x0的值而变化的,并且有正负之分,绝对值大小代表大小,正负代表方向,所以依据梯度就可以确定权重值调节的方向。
  • 至此,调节的基本原理说的就差不多了,那么剩下的问题就是如何更好的优化,以便用最少的计算量最快的速度去达到目的。

  • 学习速率(也称为步长)

1.学习速率过慢

2.学习速率过快

3.学习速率比较好的

如果让其按照每个点本身的梯度大小来调节权值,那实在是太慢了,所以我们可以为其乘上一个学习速率,意如其名,这样可以人手动的调节学习速率(或许有的人会担心,当即将逼近损失最小的点时,这样会不会不太准确了,放心好了,我们并不需要那么的准确的权值,99%和98%的区别不是太大,但是所要付出的计算量却是超大的)

附上谷歌提供的:优化学习速率体验

下面是两种个效果更好的梯度下降算法方案,第二种更优
随机梯度下降法 (SGD) :它每次迭代只使用一个样本(批量大小为 1)。“随机”这一术语表示构成各个批量的一个样本都是随机选择的。(假设有10000个样本,每次从中随机选一个来执行梯度下降)

小批量随机梯度下降法小批量 SGD)是介于全批量迭代与 SGD 之间的折衷方案。小批量通常包含 10-1000 个随机选择的样本。小批量 SGD 可以减少 SGD 中的杂乱样本数量,但仍然比全批量更高效。(每次随机选一批)

注意:为了安全起见,我们还会通过 clip_gradients_by_norm梯度裁剪应用到我们的优化器。梯度裁剪可确保梯度大小在训练期间不会变得过大,梯度过大会导致梯度下降法失败。

解释完毕,以上


华丽分割线


  1. # Use gradient descent as the optimizer for training the model.

  2. my_optimizer=tf.train.GradientDescentOptimizer(learning_rate=0.0000001)

  3. # 这里的clip_by_norm是指对梯度进行裁剪,通过控制梯度的最大范式,防止梯度爆炸的问题,是一种

  4. # 比较常用的梯度规约的方式,解释起来太费事啦。。。。略略

  5. my_optimizer = tf.contrib.estimator.clip_gradients_by_norm(my_optimizer, 5.0)

  6. # Configure the linear regression model with our feature columns and optimizer

  7. # Set a learning rate of 0.0000001 for Gradient Descent.

  8. # 线性回归模型,tf.estimator.LinearRegressor是tf.estimator.Estimator的子类

  9. # 传入参数为**特征**列和刚才配置的**优化器**,至此线性回归模型就配置的差不多啦

  10. # 前期需要配置模型,所以是与具体数据(特征值,目标值是无关的)

  11. linear_regressor = tf.estimator.LinearRegressor(

  12. feature_columns=feature_columns,

  13. optimizer=my_optimizer

  14. )

第 4 步:定义输入函数


要将加利福尼亚州住房数据导入 LinearRegressor(刚刚配置好的线性回归模型),我们需要定义一个输入函数,让它告诉 TensorFlow 如何对数据进行预处理,以及在模型训练期间如何批处理、随机处理和重复数据。(看不明白接着往下看)

我们在输入如数据之前,得将数据先处理好(按照大小啊,数据的特性啊),就像之前给数据分类为数值的还是分类的一样,因为要使用小批量随机梯度下降法,所以数据还需要按固定大小分批一下子


首先,我们将 Pandas 特征数据转换成 NumPy 数组字典。然后,我们可以使用 TensorFlow Dataset API根据我们的数据构建 Dataset 对象,并将数据拆分成大小为 batch_size 的多批数据,以按照指定周期数 (num_epochs) 进行重复。

不知道你还能不能记得一开始导入包时候的代码注释

import numpy as np //numpy是python的科学计算包,提供了许多高级的数值编程工具
import pandas as pd        //pandas是基于numpy的数据分析包,是为了解决数据分析任务而创建的

这里的大概过程就相当于使用_Pandas_的转换工具将我们从California的住房集种抽出来的数据来一个格式转换,目的是为了让接下来的数据更好更容易的被处理,比如炸薯条的话,得先给土豆削皮,然后就得切条了,对于刀工不好的人,应该是挺希望这时候的土豆是一个标准的长方体的吧,这样切起来很爽很舒服,在这里的格式转换就是这个目的,土豆还是土豆。

下面是对即将使用的函数的参数的说明


注意:如果将默认值 num_epochs=None 传递到 repeat(),输入数据会无限期重复。

然后,如果 shuffle 设置为 True,则我们会对数据进行随机处理,以便数据在训练期间以随机方式传递到模型。buffer_size 参数会指定 shuffle 将从中随机抽样的数据集的大小。

  1. # 自定义个输入函数

  2. # 输入的参数分别为

  3. # features:特征值(房间数量)

  4. # targets: 目标值(房屋价格中位数)

  5. # batch_size:每次处理训练的样本数(这里设置为1)

  6. # shuffle: 如果 `shuffle` 设置为 `True`,则我们会对数据进行随机处理

  7. # num_epochs:将默认值 `num_epochs=None` 传递到 `repeat()`,输入数据会无限期重复

  8.  
  9. def my_input_fn(features, targets, batch_size=1, shuffle=True, num_epochs=None):

  10. # dict(features).items():将输入的特征值转换为dictinary(python的一种数据类型,

  11. # lalala = {'Google': 'www.google.com', 'Runoob': 'www.runoob.com'})

  12. # 通过for语句遍历,得到其所有的一一对应的值(key:value)

  13. features = {key:np.array(value) for key,value in dict(features).items()}

  14. # Dataset.from_tensor_slices((features,targets))将输入的两个参数拼接组合起来,

  15. # 形成一组一组的**切片**张量{(房间数,价格),(房间数,价格)....}

  16. ds = Dataset.from_tensor_slices((features,targets)) # warning: 2GB limit

  17. # batch(batch_size):将ds数据集按照batch_size大小组合成一个batch

  18. # repeat(num_epochs):repeat代表从ds这个数据集要重复读取几次,在这里num_epochs=None

  19. # 代表无限次重复下去,但是因为ds数据集有容量上限,所以会在上限出停止重复

  20. ds = ds.batch(batch_size).repeat(num_epochs)

  21. # Shuffle the data, if specified

  22. # 现在ds中得数据集已经时按照batchsize组合成得一个一个batch,存放在队列中,并且是重复了n次

  23. # 这样子得话,不断重复,后面数据是没有意义,所以要将其随机打乱

  24. # shuffle(buffer_size=10000):表示打乱得时候使用得buffer大小是10000,即ds中按顺序取10000个出来

  25. # 打乱放回去,接着从后面再取10000个,按顺序来

  26. if shuffle:

  27. ds = ds.shuffle(buffer_size=10000)

  28. # Return the next batch of data

  29. # make_one_shot_iterator():最简单的一种迭代器,仅会对数据集遍历一遍

  30. # make_one_shot_iterator().get_next():迭代的时候返回所有的结果

  31. features, labels = ds.make_one_shot_iterator().get_next()

  32. # 向 LinearRegressor 返回下一批数据

  33. return features, labels

第 5 步:训练模型


现在,我们可以在 linear_regressor 上调用 train() 来训练模型。我们会将 my_input_fn 封装在 lambda 中,以便可以将 my_featuretarget 作为参数传入,首先,我们会训练 100 步。


  1. _ = linear_regressor.train(

  2. input_fn = lambda:my_input_fn(my_feature, targets),

  3. steps=100

  4. )

  • lambda的用法是将(匿名)函数封装,在此处就是将my_input_fu()封装一下,返回已经处理好的数据集ds
my_lambda = lambda arg : arg + 1
result = my_lambda(123)

第 6 步:评估模型


我们基于该训练数据做一次预测,看看我们的模型在训练期间与这些数据的拟合情况。

注意:训练误差可以衡量您的模型与训练数据的拟合情况,但并不能衡量模型泛化到新数据的效果。在后面的练习中,将探索如何拆分数据以评估模型的泛化能力。

  • 泛化:泛化能力(generalization ability)是指机器学习算法对新鲜样本的适应能力。学习的目的是学到隐含在数据对背后的规律,对具有同一规律的学习集以外的数据,经过训练的网络也能给出合适的输出,该能力称为泛化能力。--百度百科

  1. # 上一步已经将数据输入,并训练了一百步,所以现在的模型的参数是已经调整过的

  2. # 现在我们来获得**误差**,对误差进行分析,以衡量训练了一百步的模型效果怎么样

  3. # 获取误差的方式很简单,还是采用原来的数据集输入,这次不是训练,而是直接预测,返回预测结果

  4. prediction_input_fn =lambda: my_input_fn(my_feature, targets, num_epochs=1, shuffle=False)

  5. predictions = linear_regressor.predict(input_fn=prediction_input_fn)

  6. # 将预测结果取出,格式化为numpy数组,来进行误差分析

  7. predictions = np.array([item['predictions'][0] for item in predictions])

  8. # 计算均方误差(MSE),即Sum((target-predictions)²)/N,

  9. mean_squared_error = metrics.mean_squared_error(predictions, targets)

  10. # 再对均方误差开根,得到均方根误差(RMSE),目的就是看看预测值和真实的target相差了多少

  11. root_mean_squared_error = math.sqrt(mean_squared_error)

  12. # 输出MSE和RMSE

  13. print "Mean Squared Error (on training data): %0.3f" % mean_squared_error

  14. print "Root Mean Squared Error (on training data): %0.3f" % root_mean_squared_error

结果为

Mean Squared Error (on training data): 56367.025
Root Mean Squared Error (on training data): 237.417

这时候我们需要判断这个模型的效果怎么样,这样大小的数值到底意义是什么,您如何判断误差有多大?
由于均方误差 (MSE) 很难解读,因此我们经常查看的是均方根误差 (RMSE),这也是我们引入RMSE的意义。RMSE 的一个很好的特性是,它可以在与原目标相同的规模下解读(因为开过根,与target是同一个数量级的,不过当然啦,这个值是越小越好的呢)。

我们来比较一下 RMSE 与目标最大值和最小值的差值


  1. min_house_value = california_housing_dataframe["median_house_value"].min()

  2. max_house_value = california_housing_dataframe["median_house_value"].max()

  3. min_max_difference = max_house_value - min_house_value

  4.  
  5. print "Min. Median House Value: %0.3f" % min_house_value

  6. print "Max. Median House Value: %0.3f" % max_house_value

  7. print "Difference between Min. and Max.: %0.3f" % min_max_difference

  8. print "Root Mean Squared Error: %0.3f" % root_mean_squared_error

结果是

Min. Median House Value: 14.999
Max. Median House Value: 500.001
Difference between Min. and Max.: 485.002
Root Mean Squared Error: 237.417

从数据中可以看出,我们的误差跨越目标值的近一半范围,可以进一步缩小误差吗?
其实着也是每个模型开发者都会烦恼的问题,到底该怎样缩小误差,难道单纯的要靠大量数据吗?
其实我们可以来制定一些基本策略,以降低模型误差。


首先,我们可以了解一下根据总体摘要统计信息,预测和目标的符合情况

  1. # 使用pdndas的工具来对数据简单处理分析

  2. calibration_data = pd.DataFrame()

  3. # pd.Series就是将参数中的list(一维的矩阵),添加到其中,具体效果看输出的表格

  4. calibration_data["predictions"] = pd.Series(predictions)

  5. calibration_data["targets"] = pd.Series(targets)

  6. calibration_data.describe()

 predictionstargets
count17000.017000.0
mean0.1207.3
std0.1116.0
min0.015.0
25%0.1119.4
50%0.1180.4
75%0.2265.0
max1.9500.0

这个数据不用图表分析,一看就知道差距超级大了,但是我们还是画个图看看吧,比较直观

首先,我们将获得均匀分布的随机数据样本,取300对数据,用来绘制个散点图

sample = california_housing_dataframe.sample(n=300)

然后,我们根据模型的偏差项和特征权重绘制学到的线,并绘制散点图。该线会以红色显示。

  1. # Get the min and max total_rooms values.

  2. x_0 = sample["total_rooms"].min()

  3. x_1 = sample["total_rooms"].max()

  4.  
  5. # 从目前的训练模型中取出训练得到的weight(权重)和bias(b:y=w1x1+w2x2+...+b其中的b(不知道要怎么翻))

  6. weight = linear_regressor.get_variable_value('linear/linear_model/total_rooms/weights')[0]

  7. bias = linear_regressor.get_variable_value('linear/linear_model/bias_weights')

  8.  
  9. # 使用目前训练得到权值去估计x_0和x_1对应的y_0和y_1(因为训练得到的预测结果是线性的,只要知道直线端点就ok)

  10. y_0 = weight * x_0 + bias

  11. y_1 = weight * x_1 + bias

  12.  
  13. # 还记得一开始导入的一个2D图形库matplotlib吗,其是python的最主要的可视化库

  14. # 可以利用其绘制散点图、直方图和箱形图,及修改图表属性等

  15. # 下面使用其plot(二维线条画图函数),c='r'是线条参数,红色

  16. plt.plot([x_0, x_1], [y_0, y_1], c='r')

  17.  
  18. # 设置坐标轴lable

  19. plt.ylabel("median_house_value")

  20. plt.xlabel("total_rooms")

  21.  
  22. # scatter()绘制散点图,在此绘制sample中的对应的total_rooms和median_house_value的散点图

  23. plt.scatter(sample["total_rooms"], sample["median_house_value"])

  24.  
  25. plt.show()

结果如下

这条初始线看起来与目标相差很大,很明显的原因就是weight太小和bias不太对?
那么我们是否有解决的办法呢?

调整模型超参数


对于本练习,为方便起见,已将上述所有代码放入一个函数中。您可以使用不同的参数调用该函数,以了解相应效果。
我将会在 10 个等分的时间段内使用此函数,以便观察模型在每个时间段的改善情况。
对于每个时间段,我们都会计算训练损失并绘制相应图表。这可以帮助您判断模型收敛的时间,或者模型是否需要更多迭代。
此外,我们还会绘制模型随着时间的推移学习的特征权重和偏差项值的曲线图。您还可以通过这种方式查看模型的收敛效果。

  1. # 定义个函数融合上面所有的操作,以下是参数说明,并顺便复习以下上面的内容

  2. # learning_rate:学习速率(步长),可以调节梯度下降的速度

  3. # steps:训练步数,越久效果一般会越准确,但花费的时间也是越多的

  4. # batch_size:每次处理训练的样本数(将原来数据打包成一块一块的,块的大小)

  5. # input_feature:输入的特征

  6. def train_model(learning_rate, steps, batch_size, input_feature="total_rooms"):

  7. periods = 10

  8. # 将步长分十份,用于每训练十分之一的步长就输出一次结果

  9. steps_per_period = steps / periods

  10.  
  11. # 以下是准备数据,分别是my_feature_data 和 targets

  12. my_feature = input_feature

  13. my_feature_data = california_housing_dataframe[[my_feature]]

  14. my_label = "median_house_value"

  15. targets = california_housing_dataframe[my_label]

  16.  
  17. # 创建特征列

  18. feature_columns = [tf.feature_column.numeric_column(my_feature)]

  19.  
  20. # 创建输入函数(训练和预测)

  21. training_input_fn = lambda:my_input_fn(my_feature_data, targets, batch_size=batch_size)

  22. prediction_input_fn = lambda: my_input_fn(my_feature_data, targets, num_epochs=1, shuffle=False)

  23.  
  24. # 创建线性回归模型

  25. my_optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate)

  26. my_optimizer = tf.contrib.estimator.clip_gradients_by_norm(my_optimizer, 5.0)

  27. linear_regressor = tf.estimator.LinearRegressor(

  28. feature_columns=feature_columns,

  29. optimizer=my_optimizer

  30. )

  31.  
  32. # 设置每个阶段的输出

  33. # 新建绘画窗口,自定义画布的大小为15*6

  34. plt.figure(figsize=(15, 6))

  35. # 设置画布划分以及图像在画布上输出的位置1行2列,绘制在第1个位置

  36. plt.subplot(1, 2, 1)

  37. plt.title("Learned Line by Period")

  38. plt.ylabel(my_label)

  39. plt.xlabel(my_feature)

  40. sample = california_housing_dataframe.sample(n=300)

  41. plt.scatter(sample[my_feature], sample[my_label])

  42. # np.linspace(-1, 1, periods):用于输出等差数列,起始-1,结尾1,periods=10,10等分(不写的话默认50等分)

  43. # cm.coolwarm(x):设置颜色,用于十条线显示不同颜色

  44. colors = [cm.coolwarm(x) for x in np.linspace(-1, 1, periods)]

  45.  
  46. # 周期评估并输出(把训练分十次,并输出)

  47. print "Training model..."

  48. print "RMSE (on training data):"

  49. root_mean_squared_errors = []

  50. for period in range (0, periods):

  51. linear_regressor.train(

  52. input_fn=training_input_fn,

  53. steps=steps_per_period

  54. )

  55. predictions = linear_regressor.predict(input_fn=prediction_input_fn)

  56. predictions = np.array([item['predictions'][0] for item in predictions])

  57.  
  58. root_mean_squared_error = math.sqrt(

  59. metrics.mean_squared_error(predictions, targets))

  60.  
  61. print " period %02d : %0.2f" % (period, root_mean_squared_error)

  62. root_mean_squared_errors.append(root_mean_squared_error)

  63. # 取出十次训练得到的w和b,用于绘制

  64. y_extents = np.array([0, sample[my_label].max()])

  65.  
  66. weight = linear_regressor.get_variable_value('linear/linear_model/%s/weights' % input_feature)[0]

  67. bias = linear_regressor.get_variable_value('linear/linear_model/bias_weights')

  68.  
  69. x_extents = (y_extents - bias) / weight

  70. x_extents = np.maximum(np.minimum(x_extents,

  71. sample[my_feature].max()),

  72. sample[my_feature].min())

  73. y_extents = weight * x_extents + bias

  74. plt.plot(x_extents, y_extents, color=colors[period])

  75. print "Model training finished."

  76.  
  77. # 输出RMSE曲线图

  78. plt.subplot(1, 2, 2)

  79. plt.ylabel('RMSE')

  80. plt.xlabel('Periods')

  81. plt.title("Root Mean Squared Error vs. Periods")

  82. plt.tight_layout()

  83. plt.plot(root_mean_squared_errors)

  84.  
  85. # 输出预测target的对比

  86. calibration_data = pd.DataFrame()

  87. calibration_data["predictions"] = pd.Series(predictions)

  88. calibration_data["targets"] = pd.Series(targets)

  89. display.display(calibration_data.describe())

  90.  
  91. print "Final RMSE (on training data): %0.2f" % root_mean_squared_error

调节模型


接下来是调整超参数的代码以及效果

  1. # 调用train_model

  2. # learning_rate=0.00002:学习速率翻倍,有限步长可能会计算的更接近

  3. # steps=500:训练500步

  4. # batch_size=5:一批5组数据

  5. train_model(

  6. learning_rate=0.00002,

  7. steps=500,

  8. batch_size=5

  9. )

结果:

Training model...
RMSE (on training data):
period 00 : 225.63
period 01 : 214.42
period 02 : 204.04
period 03 : 194.62
period 04 : 186.60
period 05 : 180.00
period 06 : 175.44
period 07 : 171.57
period 08 : 168.84
period 09 : 167.53
Model training finished.
 predictionstargets
count17000.017000.0
mean115.3207.3
std95.0116.0
min0.115.0
25%63.7119.4
50%92.7180.4
75%137.4265.0
max1654.1500.0

Final RMSE (on training data): 167.53

有适用于模型调整的标准启发法吗?


这是一个常见的问题。简短的答案是,不同超参数的效果取决于数据。因此,不存在必须遵循的规则,您需要对自己的数据进行测试。

即便如此,仍在下面列出了几条可为您提供指导的经验法则:

  • 训练误差应该稳步减小,刚开始是急剧减小,最终应随着训练收敛达到平稳状态。
  • 如果训练尚未收敛,尝试运行更长的时间。
  • 如果训练误差减小速度过慢,则提高学习速率也许有助于加快其减小速度。

    • 但有时如果学习速率过高,训练误差的减小速度反而会变慢。
  • 如果训练误差变化很大,尝试降低学习速率。

    • 较低的学习速率和较大的步数/较大的批量大小通常是不错的组合。
  • 批量大小过小也会导致不稳定情况。不妨先尝试 100 或 1000 等较大的值,然后逐渐减小值的大小,直到出现性能降低的情况。

重申一下,切勿严格遵循这些经验法则,因为效果取决于数据。请始终进行试验和验证

尝试其他特征

使用 population 特征替换 total_rooms 特征,看看能否取得更好的效果。

  1. train_model(

  2. learning_rate=0.00002,

  3. steps=1000,

  4. batch_size=5,

  5. input_feature="population"

  6. )

结果

Training model...
RMSE (on training data):
period 00 : 225.63
period 01 : 214.62
period 02 : 204.86
period 03 : 196.26
period 04 : 189.52
period 05 : 184.46
period 06 : 180.84
period 07 : 178.30
period 08 : 176.60
period 09 : 176.02
Model training finished.
 predictionstargets
count17000.017000.0
mean119.8207.3
std96.2116.0
min0.315.0
25%66.2119.4
50%97.8180.4
75%144.2265.0
max2990.2500.0

Final RMSE (on training data): 176.02
33.png

 原文:https://blog.youkuaiyun.com/weixin_34240520/article/details/88875487

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值