神经网络求解偏微分方程的计算实验结果
1. 算法概述
1.1 第一类算法
第一类算法主要涉及两个神经网络 (u_{1N_1}) 和 (u_{2N_2}) 的训练过程,具体步骤如下:
1. 边界条件与测试点选取 :仅在边界的部分区域使用边界条件来指定相应的误差泛函 (J_1) 和 (J_2),测试点集仅取自已知边界条件的边界部分。
2. 神经网络训练 :经过一定阶段的训练后,在每个子区域的边界上对未知部分的边界条件产生近似。
3. 数据交换 :由于子区域 (\Pi_1) 和 (\Pi_2) 边界上未给出解的部分的信息(神经网络解释下的经典 Schwarz 方法),将额外项引入到每个误差泛函中,该信息是在另一个子区域上构建的解。
4. 重复计算 :重复计算过程指定的次数,或直到达到所需的精度。
此外,对该算法进行了改进,在步骤 3 中,将 (u_{1N_1}) 和 (u_{2N_2}) 在 (Q_{0,d}=\Pi_1\cap\Pi_2) 处的不匹配信息引入误差泛函 (J_1) 和 (J_2),在数值实验中使用该方法,当使用 (N_1 = N_2 = 32) 的两个网络时,最大误差不超过 0.1。
1.2 第二类算法
第二类算法实现了三种进化方法,基于两个网络的集成训练方法取得了最佳结果,使用 12 个神经元的网络时可达到 0.1 的精度。
2. 具体问题求解
2.1 泊松问题
在
神经网络求解偏微分方程实验分析
超级会员免费看
订阅专栏 解锁全文
1231

被折叠的 条评论
为什么被折叠?



