Delta学习规则
代价函数(Cost Function, Lost Function)

其中,误差E是权向量Wj的函数。欲使误差E最小,Wj与误差的负梯度成正比,即:

梯度下降法的问题
1. 学习率难以选取,太大会产生震荡,太小会收敛缓慢
2. 容易陷入局部最优解


本文探讨了Delta学习规则中的代价函数概念,并分析了误差E作为权向量Wj的函数时如何通过梯度下降法实现最小化。文中指出了梯度下降法存在的两个主要问题:学习率的选择困难以及容易陷入局部最优解。
代价函数(Cost Function, Lost Function)

其中,误差E是权向量Wj的函数。欲使误差E最小,Wj与误差的负梯度成正比,即:

1. 学习率难以选取,太大会产生震荡,太小会收敛缓慢
2. 容易陷入局部最优解


2535

被折叠的 条评论
为什么被折叠?