【文献阅读】

Title

Leveraging reduced-order models for state estimation using deep learning

Autor information

引用格式:Nair, Nirmal J., and Andres Goza. “Leveraging reduced-order models for state estimation using deep learning.” Journal of Fluid Mechanics 897 (2020): R1.pdf链接

Full text

Abtract

状态估计是将传感器测量与由降阶模型(ROM)控制的降阶状态相关联。(如果需要,可以通过ROM恢复完整状态)。这一类别中的当前方法几乎总是使用线性模型 y = C x y=Cx y=Cx 来将传感器数据与简化状态相关联,这通常导致对传感器位置的限制,并且在表示测量和简化状态之间的一般非线性关系方面具有固有的局限性。我们提出了一种替代方法,其中使用神经网络架构来学习这种非线性关系。神经网络是这个估计问题的自然选择,因为对简化状态传感器测量关系的物理解释很少明显。所提出的估计框架对所使用的ROM是不可知的,并且可以被合并到在线性子空间(例如,适当的正交分解)或非线性流形上导出的ROM的任何选择中。

Introduction

高维系统的降阶模型(ROM)在状态估计中广泛使用,一种对ROM的低阶简化状态(reduced state)进行状态估计受到关注(与直接对高维状态进行估计不同)。已经开发一系列如POD,平衡POD,动态模式分解,非线性流形等线性和非线性ROM,用来从reduced state 到高维状态。从传感器测量到reduced的估计分为两种,侵入式(kalman滤波和粒子滤波)依赖观察者动态系统来预测状态(随后根据观察到的数据进行更新),和非侵入式(无模型的),进一步分为库和非库。基于库的方法就是前面所了解的测量矩阵C(压缩感知和稀疏传感器放置),它是由通用基或是定制基得到的(它确保基列之间的稀疏性),可以由 l 1 l_1 l1范数的稀疏性促进或者 l 2 l_2 l2范数估计还原态(grappy-POD), l 2 l_2 l2范数优化的病态条件和过拟合可以通过贪婪、最优、稀疏传感器放置算法缓解。
而基于非库的方法则是通过提供测量和reduced state 之间的经验确定映射,减轻了对传感器位置的限制和基于库方法固有的局限性。线性随机估计(LSE),二次随机估计等利用 l 2 l_2 l2最小化提供映射关系。对于很多问题,非线性映射关系通常未知,因此需要更灵活的框架。

State-estimation

w ˙ = f ( w , t ; μ ) ,   w ( t n ;   μ )   ( 2.1 ) \dot w=f(w,t;\mu),\ w(t_n;\ \mu) \ (2.1) w˙=f(w,t;μ), w(tn; μ) (2.1)
w ( t ; , μ ) ≈ w r ( t ; μ ) = Φ ( a ( t ; μ ) )   ( 2.2 ) w(t;,\mu)\approx w_r(t;\mu)=\Phi (a(t;\mu))\ (2.2) w(t;,μ)wr(t;μ)=Φ(a(t;μ)) (2.2)
a ˙ = Ψ ( f ( Φ ( a ) , t ; μ ) ;   a ( t n ; μ ) = a n ( μ )   ( 2.3 ) \dot a=\Psi(f(\Phi(a),t;\mu);\ a(t_n;\mu)=a^n(\mu)\ (2.3) a˙=Ψ(f(Φ(a),t;μ); a(tn;μ)=an(μ) (2.3)非线性映射
grappy-POD从传感器测量 s s s直接估计高维状态 w w w C C C就是我们常见的测量矩阵,在测量位置为1,其它位置为0.
s n ( μ ) = C w n ( μ ) ≈ C Φ a n ( μ ) s^n(\mu)=Cw^n(\mu)\approx C\Phi a^n(\mu) sn(μ)=Cwn(μ)CΦan(μ)
a n a^n an通过最小化得到:
a n = arg ⁡ min ⁡ a ^ n   ∥ s n   −   C Φ a ^ n ∥ 2 2   ( 2.4 ) a^n= \arg \mathop{\min}\limits_{\hat a^n}\ \parallel s^n\ - \ C\Phi \hat a^n \parallel _2^2\ (2.4) an=arga^nmin sn  CΦa^n22 (2.4)
等式(2.4)最小化的结果是 a n = G ( s n ) = ( C Φ ) + s n a^n=\mathcal G(s^n)=(C\Phi)^+s^n an=G(sn)=(CΦ)+sn。选择比传感器数量更多的库元素,即 a a a的维度比 s s s的维度大,会导致过度拟合,而且 C C C编码的传感器的位置会显著影响 C Φ C\Phi CΦ的条件数(在压缩感知中是满足RIP条件)。而且选择特定位置的传感器会降低测量的灵活性。
LSE是上述的推广,传感器位置不限于高维状态基的跨度内,即线性算子可以被更一般的矩阵 G G G代替, a n = G ( s n ) = G s n a^n=\mathcal G(s^n)=Gs^n an=G(sn)=Gsn,优化问题变为:
G = arg ⁡ m i n G ^   ∥ S − G ^ A ∥ 2 2 G=\arg \mathop {min}\limits_{\hat G} \ \parallel \mathcal S -\hat GA \parallel_2^2 G=argG^min SG^A22

DSE

本文使用神经网络表征传感器测量和reduced state之间的非线性关系。 a n = G ( s n ) = g ( s n , θ ) a^n=\mathcal G(s^n)=g(s^n,\theta) an=G(sn)=g(sn,θ)
第一步,先根据
a n ( μ i s ) = arg ⁡ min ⁡ a ^ n   ∥ w n   −   Φ ( a ^ n ) ∥ 2 2 a^n(\mu _i^s)= \arg \mathop{\min}\limits_{\hat a^n}\ \parallel w^n\ - \ \Phi (\hat a^n) \parallel _2^2 an(μis)=arga^nmin wn  Φ(a^n)22
求得 a n ( μ i s ) = Φ T w n ( μ i s ) a^n(\mu _i^s)=\Phi^T w^n(\mu _i^s) an(μis)=ΦTwn(μis)
第二步,将 s s s a n a^n an作为输入和输出求解三层全连接网络的权重和偏置。
根据相对误差来分析方法的性能。
E r r o ( % ) =   ∥ w n ( μ ∗ − w r n ( μ ∗ ) ∥ 2 ∥ w n ( μ ∗ ∥ 2 × 100 Erro(\%)=\ \frac{\parallel w^n(\mu ^*-w_r^n(\mu ^*) \parallel_2}{\parallel w^n(\mu ^*\parallel_2} \times 100 Erro(%)= wn(μ2wn(μwrn(μ)2×100
估计的状态都位于参数区域 μ ∗ \mu^* μ未采样用于训练神经网络。(通过投影获得的最佳简化状态 an = ΦT wn 进行比较)。 这些被称为最优的,所有误差都是由 ROM 近似 (2.2) 引起的。 相比之下,基于 ROM 的 SE 方法会因 ROM 近似和与 G 相关的模型误差而产生误差。因此,上述 SE 方法中没有一种可以预期比最优重建更准确地估计状态

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值