构建神经网络模型与超参数调优实战
1. 构建神经网络模型
在创建好预处理层之后,接下来要将所有内容整合起来。首先,需要把所有预处理层连接成一个单一的层,作为神经网络的输入。可以使用以下代码完成此任务:
prepared_layer = Concatenate()(preproc_layers.values())
prepared_layer = tf.reshape(prepared_layer, [-1,3903])
上述代码逻辑较为清晰:创建一个 Concatenate 层,然后将输入层列表传递给它。由于预处理层存储在字典中,只需提取字典的值即可。 prepared_layer 是一个长度为 3903 的张量,考虑了独热编码和分桶特征的所有可能特征值。第二行代码将 prepared_layer 重塑为一个二维张量,这是函数式 API 中下一层所期望的输入形式。
当所有输入整合为一个层后,构建模型的其余过程与之前的操作大致相同。以下是使用函数式 API 构建模型的代码:
hid_1 = tf.keras.layers.Dense(16, activation='relu')(prepared_layer)
hid_2 = tf.keras.layers.Dense(16, activation='relu')(hid_1)
output = tf.keras.layers.Dense(1)(hid_2)
mo
超级会员免费看
订阅专栏 解锁全文
29

被折叠的 条评论
为什么被折叠?



