深度学习中的神经网络与自编码器实现
1. 简单神经网络:Keras 实现
我们将实现一个神经网络架构,各层的数量和单元数量可根据需求调整。除输出层使用 softmax() 激活函数外,包括输入层在内的每个隐藏层都使用 ReLU 激活函数。
要跟随本节内容操作,可参考 Jupyter 笔记本: https://github.com/apress/beginning-anomaly-detection-python-deep-learning-2e/blob/master/Chapter%205%20Introduction%20to%20Deep%20Learning/chapter5_mlp_keras.ipynb ,该笔记本中的示例在 TensorFlow 2.7.0 上运行。
1.1 层类型说明
- 输入层(Input) :指定 x 特征的维度。例如,若选择传入 13 个特征,则维度为 13。对于像图像这种具有长度、宽度和颜色通道数据的多维 x 数据点同样适用。更多信息可查看
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



