频谱估计的参数化及其他方法
1. 最小二乘法(LS)与线性预测
1.1 基本概念
最小二乘法(LS)可用于对线性预测系数进行最小化处理。存在两种LS估计,即前向和后向线性预测估计,以及前向和后向线性预测的组合。假设使用N个数据序列 (y(1), y(2), \cdots, y(N)) 来估计p阶自回归(AR)参数。
1.2 前向线性预测数据
前向线性预测数据 (\hat{y}(n)) 基于之前给定的数据 (y(n - 1), y(n - 2), \cdots, y(n - p)) 可表示为:
(\hat{y}(n) = \sum_{i = 1}^{p} a_i y(n - i))
其中,预测误差为:
(e(n) = y(n) - \hat{y}(n) = y(n) + \sum_{i = 1}^{p} a_i y(n - i))
1.3 最小化预测误差方差
使预测误差方差 (\sigma_p^2 = E{e^2(n)}) 最小的向量 (a) 即为所需的AR系数。通过推导可得:
(\sigma_p^2 = E{[y(n) + \sum_{i = 1}^{p} a_i y(n - i)][y(n) + \sum_{i = 1}^{p} a_i y(n - i)]} = r_y(0) + a^T r_y(p) + r_y^T(p) a + a^T R_y(p) a)
其中,(r_y(p)) 和 (R_y(p)) 在特定方程中定义。使上述方程最小的向量 (a) 为:
(a = R_y^{-1}(p) r_y(p))
最小预测误差为:
(\
超级会员免费看
订阅专栏 解锁全文
47

被折叠的 条评论
为什么被折叠?



