自适应网络盲分布式估计算法的性能分析与比较
1. 递归算法的复杂度分析
为了全面理解两种算法的性能差异,有必要分析它们的计算复杂度,这有助于评估计算负载降低时可能导致的性能损失。下面将分别分析原始算法及其递归版本的复杂度。
1.1 盲 SVD 算法
未知参数向量长度为 $M$,数据块大小为 $K$。由于估计未知参数向量需要 $N$ 个数据块($N \geq K$),所以数据矩阵大小为 $K \times N$,数据相关矩阵大小为 $K \times K$,计算该相关矩阵需要 $K^2(2N - 1)$ 次计算(包括乘法和加法)。接下来使用 QR 分解算法进行奇异值分解(SVD),之后分离零特征向量,每个特征向量用于形成 Hankel 矩阵,再将所有 Hankel 矩阵堆叠成大小为 $M \times (K - M)(M - 1)$ 的矩阵,找到该矩阵的唯一零向量即可得到未知向量的估计值,这又需要额外的计算。该算法的总体计算负载如下:
1.2 盲 Cholesky 算法
与 SVD 算法类似,未知向量长度为 $M$,数据块大小为 $K$,数据块总数为 $N$。相关过程与 SVD 算法相同,但最后多了一个平均步骤,导致总计算次数变为 $K^2(2N - 1) + 1$。接下来估计噪声方差,需要进行 SVD 分解并额外计算,之后从相关矩阵的对角线上减去噪声方差,再进行 Cholesky 分解,最后通过 Cholesky 分解后的数据相关矩阵的伪逆得到未知向量的估计值。该算法的总计算次数如下:
1.3 盲块递归 SVD 算法
将盲 SVD 算法改为递归算法后,整体算法变化不大,但总计算负载几乎减半
超级会员免费看
订阅专栏 解锁全文
26

被折叠的 条评论
为什么被折叠?



