神经网络的优化与智能体
1. 神经网络的优化方法
神经网络的优化是让其能够适应输入并学习的过程,也常被称为神经网络的训练。以下将介绍三种主要的优化方法。
1.1 反向传播算法
反向传播(Backpropagation)是误差反向传播的简称,它是训练多层神经网络和调整网络权重误差的常用方法,通常与梯度下降优化方法结合使用。
1.1.1 反向传播算法原理
多层神经网络可看作是从输入空间到输出空间的复合函数(网络函数 $\phi$),学习问题就是找到最佳的权重组合,使网络函数 $\phi$ 尽可能逼近目标函数 $f$。由于目标函数 $f$ 无法直接获取,只能通过样本训练网络函数 $\phi$ 来逼近它。
考虑一个具有 $n$ 维输入和 $m$ 维输出的前馈神经网络,包含任意数量的隐藏层,每个神经元的激活函数连续可微,权重为随机选取的实值。给定一个由 $p$ 个 $n$ 维输入和 $m$ 维目标输出的有序对组成的训练集 ${(x_1, t_1), (x_2, t_2), \ldots, (x_p, t_p)}$。当将训练集中的 $x_i$ 作为输入提交给网络时,会产生实际输出 $o_i$,通常 $o_i$ 不等于目标输出 $t_i$。我们希望对于所有的 $i = 1, \ldots, p$,$o_i$ 和 $t_i$ 尽可能相似,即最小化网络的误差函数:
[E = \frac{1}{2} \sum_{i=1}^{p} ||o_i - t_i||^2]
反向传播算法的作用是找到误差函数的局部最小值,具体过程如下:
1. 初始化 :用随机选取的权重
神经网络优化与智能体解析
超级会员免费看
订阅专栏 解锁全文
2187

被折叠的 条评论
为什么被折叠?



