神经网络的经验学习:原理、应用与实践
1. 区域数据与局部误差界
在特定区域内,时刻 1 存在的数据有着其独特的性质。该区域内所遇到的最大经验误差为:
[ - m=(Y_{I,p}) - \min(Y_{I,})]
同时满足关系:(T_{\sim,\sim} < E)。这个值构成了对近似预期精度的局部误差界,除非后续传入的数据能证明并非如此。通过观察局部误差界的演变,我们能够对输入空间不同区域的近似精度得出有用的结论。
2. 学习算法的应用示例
在这部分,我们将通过一系列示例来展示所提出算法的功能和性能。在所有示例中,均使用了“墨西哥帽”小波。
2.1 示例 1:二维函数估计
- 函数与数据生成 :此示例是对二维函数的估计。真实函数的图形如图 7 所示。通过在范围 (I = [0,1]^2) 内随机选择成对的 ((x_1,x_2)) 创建了一组示例,并将误差阈值 (E) 设置为 0.1。
- 训练过程分析 :图 8 展示了训练期间模型的演变。具体而言,网络的规模(基函数的数量)和泛化误差被绘制为提供给学习算法的数据的函数。可以观察到,尽管数据数量较少,但泛化误差较高,网络以较高的速率进行自适应调整以补偿较大的误差。泛化误差并非单调递减,但呈现出明显的下降趋势。误差的大幅变化与触发结构自适应的数据点相吻合(例如,在约 100 和 160 个数据点之后)。这意味着在这些点上,算法转移到了存在更好解决方案的子空间,并选择其中一个,从而导致误差大幅降低。在接近 160 个点之后,不再需要进一步的结构自适应,网络