13、深度学习中的神经网络与自编码器实现

深度学习中的神经网络与自编码器实现

1. 简单神经网络:Keras 实现

我们将实现一个神经网络架构,各层的数量和单元数量可根据需求调整。除输出层使用 softmax() 激活函数外,包括输入层在内的每个隐藏层都使用 ReLU 激活函数。

要跟随本节内容操作,可参考 Jupyter 笔记本: https://github.com/apress/beginning-anomaly-detection-python-deep-learning-2e/blob/master/Chapter%205%20Introduction%20to%20Deep%20Learning/chapter5_mlp_keras.ipynb ,该笔记本中的示例在 TensorFlow 2.7.0 上运行。

1.1 层类型说明
  • 输入层(Input) :指定 x 特征的维度。例如,若选择传入 13 个特征,则维度为 13。对于像图像这种具有长度、宽度和颜色通道数据的多维 x 数据点同样适用。更多信息可查看
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值