灵活结构多层神经网络的综合学习方法
1. 灵活结构神经网络概述
与开环调整不同,固定结构和闭环调整的多层神经网络设计不需要关于输入信号的先验信息。然而,前者的正确识别概率受神经网络结构固定的限制。本文聚焦于在调整过程中选择的灵活结构神经网络综合。
2. 多层神经网络第一层神经元的顺序学习算法
顺序学习算法基于超平面数量的逐步增加。这些超平面形成最终的超曲面,直到达到所需的识别质量或满足学习过程终止的其他条件。学习过程可归结为逻辑树的形成。
- 算法流程 :
1. 用固定结构神经网络将特征空间最优地划分为两部分。
2. 对得到的子空间再次划分,依此类推。
3. 选择错误分类模式数量最多的子区域进一步划分。
4. 若引入新超平面能提高识别质量,则继续划分;否则,继续划分已获得的区域。
5. 限制降低识别质量的步骤数量。
6. 满足错误概率或超平面数量的给定值时,算法终止。
-
逻辑树操作 :逻辑树的顶部有中间顶部和终止顶部两种类型。树的根是索引为0的节点,终止顶部对应特定的模式类。通过函数 $\phi_{i,j,k,\cdots,t}(x)$ 决定从顶部 $i, j, k, \cdots, t$ 的移动方向。逻辑树可用三列矩阵方便描述。
-
新分割面绘制操作 :可使用任意神经元调整算法和固定结构神经网络。
-
质量改进估计操作 :用于估计识别质量的改
超级会员免费看
订阅专栏 解锁全文
2587

被折叠的 条评论
为什么被折叠?



