神经网络实战:从基础到优化
1. 隐藏层与隐藏单元实验
在一般的神经网络中,全连接层是最常用的层。在全连接层中,相邻两层的单元两两相连,但层内单元之间没有连接。层与层之间的连接也被称为可训练参数,这些连接的权重由网络进行训练。连接越多,参数就越多,能够建模的模式也就越复杂。不过,具有很多层和单元的深度神经网络训练时间会更长,而且在进行预测推理时也会花费更多时间,这在实时环境中可能会成为问题。
选择合适数量的隐藏层和隐藏单元非常重要。如果节点数量太少,模型无法捕捉到所有信号,会导致准确率低和预测性能差(欠拟合);如果节点数量太多,模型容易在训练数据上过度拟合,无法很好地泛化。因此,我们需要查看验证数据的性能来找到平衡点。
对于深度前馈神经网络(FNN),如果有大量高维训练数据,它的表现会很好。而对于简单的分类或回归任务,单层神经网络往往表现最佳。
1.1 操作步骤
- 导入库
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers imp
超级会员免费看
订阅专栏 解锁全文
14万+

被折叠的 条评论
为什么被折叠?



