数据拟合与机器学习在势能面构建中的应用
1. 数据拟合方法
1.1 PIP - NN 方法概述
可以通过学习大量高质量电子能量的配置点来获得势能面(PES)。PIP - NN 方法将多项式不变基(PIPs)作为神经网络(NN)的输入层,结合了 PIPs 和 NNs 的优势。PIP 保证了分子体系中相同元素排列的不变性,而 NN 则能实现高精度拟合。
1.2 PIP - NN 函数表达式
对于具有两个隐藏层的神经网络,PIP - NN 函数可表示为:
$V_{PIP - NN}^{Baseline}=b_1^{(3)}Baseline+\sum_{k = 1}^{K}(\omega_{1,k}^{(3)}\cdot f_2(b_k^{(2)}+\sum_{j = 1}^{J}(\omega_{k,j}^{(2)}\cdot f_1(b_j^{(1)}+\sum_{i = 1}^{I}\omega_{j,i}^{(1)}\cdot G_i)))$
输入层由 PIPs 组成,即:
$G_i=\hat{S}\prod_{n_1 < n_2}^{N}p_{n_1n_2}^{l_{n_1n_2}}$
其中,$p_{n_1n_2}$ 是原子 $n_1$ 和 $n_2$ 之间核间距 $r_{n_1n_2}$ 的类 Morse 变量:
$p_{n_1n_2}=\exp(-\frac{r_{n_1n_2}}{\lambda})$
$\lambda$ 通常不进行优化,而是作为所有核间距的通用常数。对于无长程相互作用的中性分子体系,$\lambda$ 一般设为约 1.0 Å;对于有长程相互作用的体系,如离子 -
超级会员免费看
订阅专栏 解锁全文
1224

被折叠的 条评论
为什么被折叠?



