神经网络训练算法与高阶模糊Cohen - Grossberg神经网络稳定性分析
在当今的科技领域,神经网络的应用越来越广泛,其性能的提升对于解决复杂问题至关重要。本文将介绍一种新的数据驱动算法用于神经网络训练,以及一类高阶模糊Cohen - Grossberg神经网络(HOFCGNN)的稳定性分析。
新数据驱动算法训练神经网络
在神经网络训练中,传统算法如BP和RBF算法存在一些问题,如局部极小值、收敛速度慢以及依赖初始值等。而新提出的算法继承了三次样条权重函数的许多优点,具有更简单的网络架构和良好的泛化性能。
权重函数相关理论
在神经网络中,$z_{ji}(x_i)$ 是第 $j$ 个输出神经元和第 $i$ 个输入点之间的理论权重函数,但在实际应用中,其形式往往未知。而 $g_{ji}(x_i)$ 是由B样条构造的权重函数。$\delta_{ji}$ 是第 $j$ 个输出神经元和第 $i$ 个输入点之间的最大节点步长,$\delta_j = \max_{1\leq i\leq m}\delta_{ji}$。
定理表明,如果 $|z_j(\alpha)|_{\infty} < \infty$ 且 $r$ 为常数,通过增加节点密度可以达到任意所需的精度。为了获得更高的精度,可以增加节点数量(或减小步长 $\delta_j$ 的值)。
学习过程是构建方程(15)的系统来确定权重函数 $g_{ji}(x_i)$ 的形式。方程(15)表明每个权重函数以一个对应的输入神经元(输入点)为自变量,其形式是与给定输出模式相关的一些值和定义在给定输入变量集(输入节点或输入模式)上的B样条函数的线性组合。
超级会员免费看
订阅专栏 解锁全文
16

被折叠的 条评论
为什么被折叠?



