Title
Leveraging reduced-order models for state estimation using deep learning
Autor information
引用格式:Nair, Nirmal J., and Andres Goza. “Leveraging reduced-order models for state estimation using deep learning.” Journal of Fluid Mechanics 897 (2020): R1.pdf链接
Full text
Abtract
状态估计是将传感器测量与由降阶模型(ROM)控制的降阶状态相关联。(如果需要,可以通过ROM恢复完整状态)。这一类别中的当前方法几乎总是使用线性模型 y = C x y=Cx y=Cx 来将传感器数据与简化状态相关联,这通常导致对传感器位置的限制,并且在表示测量和简化状态之间的一般非线性关系方面具有固有的局限性。我们提出了一种替代方法,其中使用神经网络架构来学习这种非线性关系。神经网络是这个估计问题的自然选择,因为对简化状态传感器测量关系的物理解释很少明显。所提出的估计框架对所使用的ROM是不可知的,并且可以被合并到在线性子空间(例如,适当的正交分解)或非线性流形上导出的ROM的任何选择中。
Introduction
高维系统的降阶模型(ROM)在状态估计中广泛使用,一种对ROM的低阶简化状态(reduced state)进行状态估计受到关注(与直接对高维状态进行估计不同)。已经开发一系列如POD,平衡POD,动态模式分解,非线性流形等线性和非线性ROM,用来从reduced state 到高维状态。从传感器测量到reduced的估计分为两种,侵入式(kalman滤波和粒子滤波)依赖观察者动态系统来预测状态(随后根据观察到的数据进行更新),和非侵入式(无模型的),进一步分为库和非库。基于库的方法就是前面所了解的测量矩阵C(压缩感知和稀疏传感器放置),它是由通用基或是定制基得到的(它确保基列之间的稀疏性),可以由
l
1
l_1
l1范数的稀疏性促进或者
l
2
l_2
l2范数估计还原态(grappy-POD),
l
2
l_2
l2范数优化的病态条件和过拟合可以通过贪婪、最优、稀疏传感器放置算法缓解。
而基于非库的方法则是通过提供测量和reduced state 之间的经验确定映射,减轻了对传感器位置的限制和基于库方法固有的局限性。线性随机估计(LSE),二次随机估计等利用
l
2
l_2
l2最小化提供映射关系。对于很多问题,非线性映射关系通常未知,因此需要更灵活的框架。
State-estimation
w
˙
=
f
(
w
,
t
;
μ
)
,
w
(
t
n
;
μ
)
(
2.1
)
\dot w=f(w,t;\mu),\ w(t_n;\ \mu) \ (2.1)
w˙=f(w,t;μ), w(tn; μ) (2.1)
w
(
t
;
,
μ
)
≈
w
r
(
t
;
μ
)
=
Φ
(
a
(
t
;
μ
)
)
(
2.2
)
w(t;,\mu)\approx w_r(t;\mu)=\Phi (a(t;\mu))\ (2.2)
w(t;,μ)≈wr(t;μ)=Φ(a(t;μ)) (2.2)
a
˙
=
Ψ
(
f
(
Φ
(
a
)
,
t
;
μ
)
;
a
(
t
n
;
μ
)
=
a
n
(
μ
)
(
2.3
)
\dot a=\Psi(f(\Phi(a),t;\mu);\ a(t_n;\mu)=a^n(\mu)\ (2.3)
a˙=Ψ(f(Φ(a),t;μ); a(tn;μ)=an(μ) (2.3)
grappy-POD从传感器测量
s
s
s直接估计高维状态
w
w
w,
C
C
C就是我们常见的测量矩阵,在测量位置为1,其它位置为0.
s
n
(
μ
)
=
C
w
n
(
μ
)
≈
C
Φ
a
n
(
μ
)
s^n(\mu)=Cw^n(\mu)\approx C\Phi a^n(\mu)
sn(μ)=Cwn(μ)≈CΦan(μ)
a
n
a^n
an通过最小化得到:
a
n
=
arg
min
a
^
n
∥
s
n
−
C
Φ
a
^
n
∥
2
2
(
2.4
)
a^n= \arg \mathop{\min}\limits_{\hat a^n}\ \parallel s^n\ - \ C\Phi \hat a^n \parallel _2^2\ (2.4)
an=arga^nmin ∥sn − CΦa^n∥22 (2.4)
等式(2.4)最小化的结果是
a
n
=
G
(
s
n
)
=
(
C
Φ
)
+
s
n
a^n=\mathcal G(s^n)=(C\Phi)^+s^n
an=G(sn)=(CΦ)+sn。选择比传感器数量更多的库元素,即
a
a
a的维度比
s
s
s的维度大,会导致过度拟合,而且
C
C
C编码的传感器的位置会显著影响
C
Φ
C\Phi
CΦ的条件数(在压缩感知中是满足RIP条件)。而且选择特定位置的传感器会降低测量的灵活性。
LSE是上述的推广,传感器位置不限于高维状态基的跨度内,即线性算子可以被更一般的矩阵
G
G
G代替,
a
n
=
G
(
s
n
)
=
G
s
n
a^n=\mathcal G(s^n)=Gs^n
an=G(sn)=Gsn,优化问题变为:
G
=
arg
m
i
n
G
^
∥
S
−
G
^
A
∥
2
2
G=\arg \mathop {min}\limits_{\hat G} \ \parallel \mathcal S -\hat GA \parallel_2^2
G=argG^min ∥S−G^A∥22
DSE
本文使用神经网络表征传感器测量和reduced state之间的非线性关系。
a
n
=
G
(
s
n
)
=
g
(
s
n
,
θ
)
a^n=\mathcal G(s^n)=g(s^n,\theta)
an=G(sn)=g(sn,θ)
第一步,先根据
a
n
(
μ
i
s
)
=
arg
min
a
^
n
∥
w
n
−
Φ
(
a
^
n
)
∥
2
2
a^n(\mu _i^s)= \arg \mathop{\min}\limits_{\hat a^n}\ \parallel w^n\ - \ \Phi (\hat a^n) \parallel _2^2
an(μis)=arga^nmin ∥wn − Φ(a^n)∥22
求得
a
n
(
μ
i
s
)
=
Φ
T
w
n
(
μ
i
s
)
a^n(\mu _i^s)=\Phi^T w^n(\mu _i^s)
an(μis)=ΦTwn(μis)。
第二步,将
s
s
s和
a
n
a^n
an作为输入和输出求解三层全连接网络的权重和偏置。
根据相对误差来分析方法的性能。
E
r
r
o
(
%
)
=
∥
w
n
(
μ
∗
−
w
r
n
(
μ
∗
)
∥
2
∥
w
n
(
μ
∗
∥
2
×
100
Erro(\%)=\ \frac{\parallel w^n(\mu ^*-w_r^n(\mu ^*) \parallel_2}{\parallel w^n(\mu ^*\parallel_2} \times 100
Erro(%)= ∥wn(μ∗∥2∥wn(μ∗−wrn(μ∗)∥2×100
估计的状态都位于参数区域
μ
∗
\mu^*
μ∗未采样用于训练神经网络。(通过投影获得的最佳简化状态 an = ΦT wn 进行比较)。 这些被称为最优的,所有误差都是由 ROM 近似 (2.2) 引起的。 相比之下,基于 ROM 的 SE 方法会因 ROM 近似和与 G 相关的模型误差而产生误差。因此,上述 SE 方法中没有一种可以预期比最优重建更准确地估计状态。