变步长MLMS预失真算法

AI助手已提取文章相关产品:

宽带OFDM系统中数字预失真的变步长MLMS算法

摘要

作为最有前景的线性化技术之一,自适应数字预失真(PD)已广泛应用于现代无线通信系统中,以提高功率放大器(PA)的效率。针对宽带功放的非平稳信号环境,本文提出了一种基于记忆多项式模型(MPM)的高效间接学习自适应预失真方法。所提出的预失真器的系数可通过改进的最小均方(MLMS)学习算法有效辨识。此外,通过采用变步长参数,可同时实现对具有深度记忆效应的功放更稳定收敛和更低的稳态误差。文中推导了关于学习稳定性、收敛行为以及初始参数选择准则的理论分析结果。仿真表明,在噪声反馈条件下,对于宽带功放,MLMS在归一化均方误差(NMSE)和带外功率谱密度(PSD)方面优于传统的LMS、归一化LMS(NLMS)和广义归一化梯度下降(GNGD)算法。

索引术语

数字预失真,功率放大器,变步长,改进的最小均方

一、引言

功率放大器(PA)是无线通信中不可或缺的非线性器件之一。PA的非线性会引入带内失真和带外频谱再生,导致误码率(BER)性能下降以及邻道干扰[1],[2]。一些现代传输格式,如正交频分复用(OFDM)信号,由于具有较高的峰均功率比(PAPR),其包络变化范围较大,因而对非线性失真更为敏感。高PAPR意味着PA必须远离其饱和点工作,从而严重降低了PA的功率效率[3]。在现有的PA线性化技术中,自适应数字预失真(PD)[4]‐[5]已被公认为一种成本效益较高的方法,一种用于补偿宽带无线通信系统中功率放大器非线性的方法。

为了提取预失真系数,可能遇到的一个主要困难是预失真在非平稳信号环境[6]下的脆弱性。理想情况下,预失真学习算法(如最小均方(LMS)和递归最小二乘(RLS))在平稳信号环境中运行时,能够实现快速收敛和较低的稳态误差。然而,当输入信号表现出未知且可能非常大的动态范围时,病态输入自相关矩阵可能导致LMS和RLS的收敛性能变差,甚至发散。此外,随着带宽的增加,例如3GPP长期演进(LTE)和下一代地面数字多媒体广播(T‐DMB)系统的正交频分复用信号,必须考虑功率放大器的深度记忆效应[7]。为了解决这一问题,文献[8]中提出了归一化LMS(NLMS)和广义归一化梯度下降(GNGD)算法。此外,由于下变频混频器和模数转换器的影响,反馈至预失真单元的功放输出会受到测量噪声的污染。噪声污染的功放反馈路径会降低预失真性能,导致因有偏系数识别而产生更高的谱再生。已证明,在宽带应用中,随着功放非线性阶数的增加,测量噪声的影响会被进一步放大[9]。不幸的是,NLMS和GNGD都容易受到测量噪声的影响。为解决该问题,文献[9]中引入了两种基于间接学习结构的预失真技术。随后,文献[10],提出了一些采用直接学习结构的预失真方案,例如非线性滤波‐x RLS(NFXRLS)和非线性伴随LMS(NALMS)。然而,这些方法仅适用于记忆效应相对较弱的功放。其他可用的预失真方案要么收敛速度较慢,要么实现复杂度较高,或者未考虑宽带功放的记忆效应。

本文提出了一种基于具有变步长参数的改进型LMS(MLMS)算法的高效间接学习预失真方案。特别是,通过使用变步长,预失真器能够根据输入信号的动态特性以及来自功率放大器的含噪反馈信号自适应地调整其学习率。因此,预失真器在上述非平稳信号环境中可以获得更稳定的收敛性和更小的稳态失调误差。理论研究和仿真结果均表明,MLMS在学习稳定性、收敛行为以及功率放大器线性化性能方面显著优于传统的LMS、NLMS和GNGD算法。

本文其余部分组织如下:第二节描述了间接学习预失真模型;第三节提出了用于识别预失真器系数的MLMS算法;下一节分析了MLMS的稳定性和收敛行为;第五节给出了仿真结果;第六节为结论。

符号说明:上标 $\left( \right)^T$、$\left( \right)^H$和$\left( \right)^*$分别表示转置、埃尔米特转置和共轭。

II. 间接学习结构

迄今为止,人们已经提出了多种功放行为模型。实际上,记忆多项式模型(MPM)已被广泛用于具有深度记忆效应的宽带功放的行为建模[4]。给定输入信号 $x(n)$,功放输出 $y(n)$可以表示为

$$
y(n) = \sum_{k \in odd}^{K-1} \sum_{q=0}^{Q-1} a_{kq} x^k(n-q),
\tag{1}
$$

其中 $a_{kq}$ 是MPM的系数,K是功率放大器的最高非线性阶数,Q是记忆深度。实际上,MPM对应于广义Volterra级数的简化形式,仅保留了对角项。采用间接学习结构的发射机的基带等效模型如图1所示。间接学习的主要优点是可以消除对功放模型假设以及相应的功放系数识别的需求[5]。如图1所示,$x(n)$和$z(n)$分别为预失真器的输入和输出信号,$z(n)$被送入功率放大器以产生其输出信号 $y_0(n)$。

示意图0

使用MPM,预失真器的 $x(n)$与 $z(n)$之间的关系由下式给出

$$
z(n) = \sum_{k \in odd}^{K-1} \sum_{m=0}^{M-1} w_{km} x^k(n-m),
\tag{2}
$$

其中 $w_{km}$ 是指定预失真器的系数。理想情况下,预失真器是功率放大器的逆模型,其系数可以通过可用的输入 $z(n)$ 和功放输出 $y_0(n)$ 来识别。然而,反馈给预失真单元的实际功放输出信号可能受到测量噪声的污染,从而导致有偏系数识别。这里,$v(n)$ 表示高斯噪声,它与 $y_0(n)$ 相互独立。在间接学习方法中,首先使用功放的输出来预测其输入信号,从而识别出逆功率放大器模型。此过程被称为“后失真器”,因为它应用于功放之后。然后将后失真器的已识别系数复制到一个相同的预失真器模型中,以对输入信号进行预失真。

III. 提出的MLMS学习算法

本节推导了提出的MLMS算法的通用公式。后失真器的输出表示为

$$
\hat{z}(n) = \sum_{k \in odd}^{K-1} \sum_{m=0}^{M-1} w_{km} y^k(n-m).
\tag{3}
$$

将(3)式重写为如下矩阵形式

$$
\hat{z}(n) = \mathbf{w}^H(n) \mathbf{u}(n),
\tag{4}
$$

其中 $\hat{z}(n)$ 表示后失真器在时刻n的输出信号,$\mathbf{w}(n) = [w_{10}, w_{30}, …, w_{k0}, …, w_{1M}, w_{3M}, …, w_{KM}]^T$ 是后失真器的权向量,而 $\mathbf{u}(n)$ 是由功放输出得到的组合向量,即

$$
\mathbf{u}(n) = [y(n), y(n-1), …, y(n-M), …, y^K(n), y^K(n-1), …, y^K(n-M)]^T.
$$

为了确定后失真器的系数,定义了一个瞬时误差

$$
e(n) = z(n) - \hat{z}(n).
\tag{5}
$$

经典LMS算法的代价函数由下式给出

$$
J(n) = \frac{1}{2} e(n) e^*(n) = \frac{1}{2} |e(n)|^2.
\tag{6}
$$

通过递归更新的系数可以表示为

$$
\mathbf{w}(n+1) = \mathbf{w}(n) - \mu(n) \nabla J(n),
\tag{7}
$$

其中 $\mu(n)$ 是步长参数(学习率),它决定了收敛速度和学习稳定性,而 $\nabla J(n)$ 是 $J(n)$ 相对于 $\mathbf{w}(n)$ 的列梯度向量,即

$$
\nabla J(n) = \frac{\partial J(n)}{\partial \mathbf{w}(n)} = \frac{\partial}{\partial \mathbf{w}(n)} \left[ \frac{1}{2} (z(n) - \mathbf{w}^H(n)\mathbf{u}(n))^ (z(n) - \mathbf{w}^H(n)\mathbf{u}(n)) \right] = -e^ (n)\mathbf{u}(n).
\tag{8}
$$

用于获得最优 $\mathbf{w}(n)$ 的MLMS算法可推导如下

$$
\mathbf{w}(n+1) = \mathbf{w}(n) + \frac{2\mu(n)}{\gamma + \mathbf{u}^H(n)\mathbf{u}(n)} e(n)\mathbf{u}(n),
\tag{9}
$$

其中$\gamma$是一个小的正常数,用于在输入向量接近零时保持稳定性,以及步长参数 $\mu(n)$ 定义为

$$
\mu(n) = \nu \cdot \left(1 - \text{erf}\left(\alpha |e(n)|\right)\right),
\tag{10}
$$

其中 $\text{erf}(x) = \frac{2}{\sqrt{\pi}} \int_0^x e^{-\eta^2} d\eta$ 为高斯误差函数,$\nu$ 和 $\alpha$ 是两个调节因子,用于控制步长 $\mu(n)$ 的变化速率。

众所周知,LMS或归一化最小均方的固定步长$\mu$的取值范围定义为 $0 < \mu < 2/\lambda_{\text{max}}$,其中 $\lambda_{\text{max}}$ 是输入信号[6]的自相关矩阵的最大特征值。因此,$0 < \mu(n) < 2/\lambda_{\text{max}}$,即

$$
0 < \nu \cdot \left(1 - \text{erf}\left(\alpha |e(n)|\right)\right) < 2/\lambda_{\text{max}}.
\tag{11}
$$

考虑到 $0 < 1 - \text{erf}\left(\alpha |e(n)|\right) < 1$,$\nu$ 的范围应为

$$
0 < \nu < 2/\lambda_{\text{max}}.
\tag{12}
$$

示意图1

从(11)式可以看出,步长 $\mu(n)$ 必须大于零,这使得调整因子为 $\alpha > 0$。图2描绘了步长随瞬时误差 $e(n)$变化的曲线,其中 $\nu = 1$取不同值时对应的$\alpha$。如图所示,步长随着 $e(n)$单调递减,而$\alpha$可用于控制 $\mu(n)$的变化速率。当$\alpha$较小时(例如 $\alpha = 1$),$\mu(n)$近似线性趋近于零;相反,当 $\alpha$取相对较大的值时,$\mu(n)$能在更长时间内保持较高恒定值,然后迅速降至零。通常情况下,在自适应过程的初期,若瞬时误差较大,则希望采用较大的步长以获得更快的收敛速度;反之,随着 $e(n)$的减小,学习率应逐渐降低,以实现更低的稳态误差。

IV. 性能研究

本节研究了MLMS算法的学习稳定性和收敛行为。

A. 学习稳定性

令 $\mathbf{d}(n) = \mathbf{w}(n) - \mathbf{w}_o$ 为权值误差向量,其中 $\mathbf{w}_o$ 是预失真器的权向量。由(9)可得,$\mathbf{d}(n+1)$ 为

$$
\mathbf{d}(n+1) = \mathbf{d}(n) - \frac{2\mu(n)}{\gamma + \mathbf{u}^H(n)\mathbf{u}(n)} e^*(n)\mathbf{u}(n).
\tag{13}
$$

$n$ 时刻的均方误差(MSE)定义为

$$
\xi(n) = E\left[|\mathbf{d}(n)|^2\right] = E\left[\mathbf{d}^H(n)\mathbf{d}(n)\right].
\tag{14}
$$

为了保持学习稳定性,$\xi(n+1) - \xi(n)$ 应小于零,即

$$
\xi(n+1) - \xi(n) = E\left[ \left| \mathbf{d}(n) - \frac{2\mu(n)}{\gamma + \mathbf{u}^H(n)\mathbf{u}(n)} e^*(n)\mathbf{u}(n) \right|^2 \right] - E\left[ |\mathbf{d}(n)|^2 \right] < 0,
\tag{15}
$$

其中 $\kappa(n) = \mathbf{d}^H(n)\mathbf{u}(n)$。MLMS关于 $\nu$ 的稳定性边界是

$$
0 < \nu < \frac{2}{\lambda_{\text{max}}} \cdot \frac{E\left[ |e(n)|^2 \right]}{E\left[ \text{Re}\left{ e^*(n) \cdot \text{erf}(\alpha |e(n)|) \right} \right]}.
\tag{16}
$$

初始参数设置对学习率的影响在第五节中进行了讨论。

B. 收敛行为

由(9)式,权值更新方程可表示为

$$
\mathbf{w}(n+1) = \mathbf{w}(n) + \mu(n) \left( \hat{\mathbf{P}} - \hat{\mathbf{R}} \mathbf{w}(n) \right),
\tag{17}
$$

其中,$\hat{\mathbf{R}}$ 是 $y(n)$ 的自相关矩阵的归一化瞬时估计,$\hat{\mathbf{P}}$ 是 $y(n)$ 和 $z(n)$ 之间归一化的互相关矩阵,$\mathbf{I}$ 表示单位矩阵。假设初始向量为 $\mathbf{w}(0)$,可得

$$
\begin{aligned}
\mathbf{w}(1) &= \left( \mathbf{I} - \mu(0)\hat{\mathbf{R}} \right) \mathbf{w}(0) + \mu(0)\hat{\mathbf{P}}, \
\mathbf{w}(2) &= \left( \mathbf{I} - \mu(1)\hat{\mathbf{R}} \right) \mathbf{w}(1) + \mu(1)\hat{\mathbf{P}}, \
&\vdots \
\mathbf{w}(n) &= \left[ \prod_{i=0}^{n-1} \left( \mathbf{I} - \mu(i)\hat{\mathbf{R}} \right) \right] \mathbf{w}(0) + \sum_{j=0}^{n-1} \left[ \prod_{i=j+1}^{n-1} \left( \mathbf{I} - \mu(i)\hat{\mathbf{R}} \right) \right] \mu(j)\hat{\mathbf{P}}.
\end{aligned}
\tag{18}
$$

更一般地,$\mathbf{w}(n)$ 可以重写为

$$
\mathbf{w}(n) = \left[ \prod_{i=0}^{n-1} \left( \mathbf{I} - \mu(i)\hat{\mathbf{R}} \right) \right] \mathbf{w}(0) + \sum_{j=0}^{n-1} \left[ \prod_{i=j+1}^{n-1} \left( \mathbf{I} - \mu(i)\hat{\mathbf{R}} \right) \right] \mu(j)\hat{\mathbf{P}}.
\tag{19}
$$

当 $n$ 趋近于无穷大时,$\mathbf{w}(n)$ 的极限可以计算为

$$
\lim_{n \to \infty} \mathbf{w}(n) = \underbrace{ \lim_{n \to \infty} \left[ \prod_{i=0}^{n-1} \left( \mathbf{I} - \mu(i)\hat{\mathbf{R}} \right) \right] \mathbf{w}(0) } {\to \mathbf{0}} + \underbrace{ \lim {n \to \infty} \sum_{j=0}^{n-1} \left[ \prod_{i=j+1}^{n-1} \left( \mathbf{I} - \mu(i)\hat{\mathbf{R}} \right) \right] \mu(j)\hat{\mathbf{P}} }_{\to \mathbf{w}_c}.
\tag{20}
$$

在附录中,证明了 $\lim_{n \to \infty} \mathbf{w}(n)$ 可以收敛到一个有界常数向量 $\mathbf{w}_c$。

V. 仿真结果

通过计算机仿真,在存在测量噪声的情况下,从归一化均方误差(NMSE)和带外谱再生两个方面评估了所提预失真器的有效性。同时考虑了三种传统预失真算法 LMS、NLMS 和 GNGD [8] 用于对比。预失真的宽带输入为地面数字视频广播第二代(DVB-T2)正交频分复用信号[11],包含8192个子载波(8k模式)、64进制正交幅度调制(64-QAM)、1/16保护间隔以及8倍上采样率。预失真器具有 5th 阶非线性(K=5)和三阶记忆深度(M=3)。所使用的功放模型为MPM,其系数定义为[12]

$$
\begin{aligned}
a_{10} &= 1.0108 + 0.0858j, & a_{30} &= 0.0879 - 0.1583j, \
a_{50} &= -1.0992 + 0.8891j, & a_{11} &= 0.1179 + 0.0004j, \
a_{31} &= -0.1818 + 0.0391j, & a_{51} &= -0.1684 + 0.0034j, \
a_{12} &= 0.0473 + 0.0058j, & a_{32} &= 0.0395 + 0.0283j, \
a_{52} &= -0.1015 + 0.0196j.
\end{aligned}
\tag{21}
$$

功放反馈路径中的测量噪声 $v(n)$ 是高斯白噪声,典型的信噪比(SNR)为35dB[9],所有以下曲线均使用带有噪声的输出信号 $y(n)$,通过不同的辨识算法来辨识预失真器的系数。仿真通过1000次独立运行获得。初始权向量定义为 $\mathbf{w}(0) = [1, 0, \dots, 0]^T$。

示意图2

为了观察四种算法的收敛行为,给出了噪声反馈条件下输入 $x(n)$ 与功放输出 $y_0(n)$ 之间的差异。在相同初始值 $\nu = 1$ 和 $\nu = 2.5$ 条件下,不同预失真算法的NMSE学习曲线分别如图3和图4所示。

当 $\nu = 1$ 时,如图3所示,所有算法的NMSE随着迭代次数的增加而单调递减,然后收敛至稳态。但MLMS算法可以获得比其他算法更小的NMSE。在图4中,当 $\nu = 2.5$ 时,LMS算法的NMSE在几次迭代后出现轻微发散。然而,MLMS算法在两种初始化设置下表现出类似的稳态NMSE,并且在存在测量噪声的情况下显著优于其他算法。

还可以观察到,对于MLMS算法,随着 $\alpha$ 的增加,NMSE得到提升。显然,该实验结果与第三节中的先前分析一致。

不同算法在相同初始化参数 $\nu = 1$ 和 $\nu = 2.5$ 下的功率放大器输出 $y_0(n)$ 的功率谱密度(PSD)分别如图5和图6所示。为了对比,还给出了无预失真的噪声输出(a)以及原始输入 $x(n)$(g)的功率谱密度。如图所示,在两种初始化设置情况下,MLMS的带外频谱再生均明显低于其他算法。

相较于NLMS和GNGD,MLMS可将邻近邻道的谱再生水平降低超过10 dB。此外,采用 $\alpha = 50$ 的MLMS具有最佳的带外PSD性能。

如上述仿真所示,与传统预失真算法相比,提出的 MLMS算法表现出优异的收敛行为,具有更低的稳态失调误差和更低的杂散发射。

VI. 结论

为了改善非平稳信号环境下预失真的收敛性和稳定性,本文提出了一种基于变步长MLMS算法的高效间接学习预失真方案,用于辨识预失真器系数。通过采用变步长策略,MLMS算法能够同时实现更稳定的收敛和更低的稳态误差。仿真结果表明,与传统预失真算法相比,在噪声反馈条件下,MLMS算法能有效抑制具有长期非线性和记忆效应的宽带功放的谱再生。此外,MLMS算法对初始参数设置也表现出较强的鲁棒性。

您可能感兴趣的与本文相关内容

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值