机器学习模型训练与物理约束施加在交换 - 关联泛函中的应用
1. 机器学习模型训练策略
在训练各种泛函时,存在一种通用策略。首先,需要为特定系统准备输入 ${n^{(t)}}$($t$ 为训练数据的索引)的“精确”示例,以及泛函的输出值 ${ f^{(t)} \equiv f [n^{(t)}]}$。通过 ${ f^{(t)}}$ 与使用机器学习近似计算得到的相同量的值 ${ f_{ML}^{(t)}}$ 之间的差异来定义损失函数,然后优化机器学习模型,使损失函数最小化。需要注意的是,生成“精确”数据的方法应在数值上精确,因为训练数据的近似求解器会限制机器学习模型的准确性。
交换 - 关联势作为 $n$ 的泛函的训练数据可以通过 Kohn - Sham 反演技术计算。值得注意的是,尽管总能量公式(4.13)看似需要 $E_{xc}[n]$,但 $V_{xc}[n]$ 的公式足以通过 KS 方程评估系统的总能量。这可以通过在反演结束时,使用 KS 特征值 $\varepsilon_{a}^{(t)}$ 和能量 $E_{GS}^{(t)}$ 来校正 $V_{xc}[n^{(t)}]$ 的常数项来实现,公式如下:
[V_{xc}[n^{(t)}] \to V_{xc}[n^{(t)}] + \frac{1}{M} (E_{GS}^{(t)} - \sum_{a:occ.} \varepsilon_{a}^{(t)})]
其中 $M$ 是电子的数量。经过这样的处理,总能量由 KS 方程的特征值与校正常数的简单和给出。这是 Levy - Zahariev 形式主义的一种实际应用,在方程(4.13)中引入标量泛函 $c[n]$:
[E_{GS} = \sum_{a:occ.} (\
超级会员免费看
订阅专栏 解锁全文
1778

被折叠的 条评论
为什么被折叠?



