深度学习基础与时间序列数据建模解析
1. 深度学习基础
1.1 误差反向传播与学习率
在深度学习中,误差反向传播方法是一种基础且广泛应用的神经网络学习方法。权重更新公式为:
[w_{hi}^{(1)} = w_{hi}^{(1)} - \epsilon \frac{\partial L_{o}}{\partial w_{hi}^{(1)}}]
其中,(\epsilon) 被称为学习率,它决定了每个权重 (w) 在一次学习步骤中的更新幅度。误差反向传播算法通过迭代学习步骤,寻找一组权重 ({w}),以最小化神经网络模型输出变量值与训练数据输出变量值之间的平方和误差 (L_{o})。
1.2 堆叠去噪自编码器方法
1.2.1 梯度消失问题
误差反向传播方法存在梯度消失问题。当权重从输出层通过中间层反向传播到输入层时,传播的值会逐渐变小,这使得权重难以平滑更新,进而导致神经网络训练困难。在深度学习中,中间层增多时,梯度消失问题的可能性会增加,成为学习的主要障碍。
1.2.2 堆叠自编码器
为避免梯度消失问题,可采用堆叠自编码器方法。在使用误差反向传播方法更新权重之前,该方法通过预训练预先确定权重的初始值,而非使用随机数。自编码器是一种预训练方法,它利用只有输入而无目标输出的训练数据集,将输入数据恢复为神经网络的输出。
自编码器概念图由一个具有一个中间层的三层神经网络组成,使用误差反向传播方法调整权重。从输入层到中间层的第一次变换称为编码,从中间层到输出层的变换称为解码。通过这些变换,输入被编码然后解码,以确保原始输入被忠实地恢复,从而获得能很好代表训练
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



