具有未知动态系统的神经控制:HOMNA 设计与性能分析
1. 张量空间匹配与计算
在张量空间匹配的计算中,假设 ${r(x_i) : i = 1, 2, \cdots, m}$ 是 $H(v)$ 中的一个线性无关集。此时,Grammian 矩阵 $G$(其中 $G_{ij} = (\varphi(x_i), \varphi(y_i))$)是可逆的。若 $T$ 是列向量为 $r(x_i)$ 的矩阵,那么 $G = T^*T$。
对于张量空间投影 $P$,有 $P = T G^{-1}T^ $。当 $P$ 作用于 $r(x)$ 时,分析 $T^ r(x)$,其第 $i$ 个元素为 $((r(x_i), \varphi(x))) = \varphi((x_i, x))$,这与 $\varphi(Sx)$ 相同(其中矩阵 $S$ 的行向量为 ${x_i}$)。简而言之,对于所有 $x \in R^m$,有 $(T^ T)^{-1}T^ r(x) = G^{-1}\varphi(Sx)$。
在控制器应用方面,$(T^ T)^{-1}T^ r(x)$ 是 $P r(x)$ 沿基础流形基的线性展开系数。若 $Y$ 是列向量为所选向量值 ${u(j)}$ 的矩阵,那么 $\hat{u} = Y G^{-1} \varphi(Sx)$ 正是之前所确定的线性插值。
由于 $G_m$ 是关联核的 Grammian 矩阵,且核选择算法保证了线性无关性,所以 $G_m$ 是可逆的。同时,矩阵 ${K_m, S_m}$ 由核明确定义,因此完全训练的神经网络会随核一起发展,这为根据工厂特性变化对网络进行在线调整提供了可能。
超级会员免费看
订阅专栏 解锁全文
15

被折叠的 条评论
为什么被折叠?



