最小二乘估计理论

文章讨论了如何在输出为随机过程的情况下,通过求解最优权向量来最小化输出估计结果的样本均方误差。这种方法涉及到使用矩阵的奇异值分解(SVD)来解决基于最小二乘(LS)的优化问题。当数据矩阵非奇异时,直接使用SVD求解;而在奇异情况下,需要添加最小范数条件以确保唯一解。

模型

不需输入输出为随机过程,求最优权向量使得输出估计结果的样本均方误差最小
b^⃗H=w⃗HAH{b^H=[d^(M)d^(M+1)⋯d^(N)]AH=[u(M)u(M+1)⋯u(N)]=[u(M)u(M+1)⋯u(N)u(M−1)u(M)⋯u(N−1)⋮⋮⋱⋮u(1)u(2)⋯u(N−M+1)]w=[w0w1⋯wM−1]Hmin{J}{e=b−b^J=eHe \begin {align} &\vec{\hat{b}}^H=\vec{w}^HA^H \\ &\left\{\begin{aligned} \hat{b}^H&=\begin{bmatrix} \hat{d}(M)&\hat{d}(M+1)&\cdots&\hat{d}(N) \end{bmatrix} \\ A^H&=\begin{bmatrix} u(M)&u(M+1)&\cdots&u(N)\end{bmatrix}\\ &=\begin{bmatrix} u(M)&u(M+1)&\cdots&u(N)\\ u(M-1)&u(M)&\cdots&u(N-1)\\ \vdots&\vdots&\ddots&\vdots\\ u(1)&u(2)&\cdots&u(N-M+1)\\ \end{bmatrix}\\ w&=\begin{bmatrix} w_0 & w_1 &\cdots &w_{M-1} \end{bmatrix} ^H\\ \end{aligned} \right.\\ &min\{J\}\\ &\left\{\begin{aligned} &e=b-\hat{b} \\ &J=e^He \end{aligned} \right. \end {align} b^H=wHAHb^HAHw=[d^(M)d^(M+1)d^(N)]=[u(M)u(M+1)u(N)]=u(M)u(M1)u(1)u(M+1)u(M)u(2)u(N)u(N1)u(NM+1)=[w0w1wM1]Hmin{J}{e=bb^J=eHe

方法

最优权向量满足确定性正则方程:
AHAw^=AHb A^HA\hat{w}=A^Hb AHAw^=AHb

算法

基于SVD的LS算法

LS最优权重仅与数据矩阵AAA的奇异值和特征向量有关,故求得数据矩阵的奇异值和特征向量即可求得最有权重。
{w^=∑i=1K(xi⃗Hθ⃗σi2)xi⃗θ⃗=AHb \begin{align} \left\{ \begin{aligned} &\hat{w}=\sum\limits_{i=1}^{K}(\frac{\vec{x_i}^H\vec{\theta}}{\sigma_i^2})\vec{x_i}\\ &\vec{\theta} = A^Hb \end{aligned} \right. \end{align} w^=i=1K(σi2xiHθ)xiθ=AHb
关于AHAA^HAAHA是否奇异分类讨论:
{非奇异K=M:w^=∑i=1M(xi⃗Hθ⃗σi2)xi⃗奇异K<M:w^=∑i=1K(xi⃗Hθ⃗σi2)xi⃗(加入最小范数条件使得有唯一解) \begin{align} \left\{ \begin{aligned} 非奇异K=M:&\hat{w}=\sum\limits_{i=1}^{M}(\frac{\vec{x_i}^H\vec{\theta}}{\sigma_i^2})\vec{x_i}\\ 奇异K<M:&\hat{w}=\sum\limits_{i=1}^{K}(\frac{\vec{x_i}^H\vec{\theta}}{\sigma_i^2})\vec{x_i}(加入最小范数条件使得有唯一解)\\ \end{aligned} \right. \end{align} 非奇异K=M:奇异K<M:w^=i=1M(σi2xiHθ)xiw^=i=1K(σi2xiHθ)xi(加入最小范数条件使得有唯一解)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值