自回归(AR)模型的功率谱估计

本文介绍了随机信号处理中的自回归滑动平均(ARMA)模型,包括自回归(AR)、滑动平均(MA)和ARMA模型的定义及它们之间的关系。重点阐述了如何利用自相关函数和Yule-Walker方程、Levinson-Durbin法、Burg法、协方差法和修正协方差法估计模型参数,并提供了每种方法的详细计算过程。此外,还讨论了自回归模型的功率谱估计方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

随机信号的参数模型

假定随机信号 x(n)x(n)x(n) 是由白噪声 w(n)w(n)w(n) 激励某一确定系统的响应。如下图所示:

在这里插入图片描述
随机信号 x(n)x(n)x(n)、白噪声 w(n)w(n)w(n)和系统的冲击响应 h(n)h(n)h(n) 之间的关系为:x(n)=h(n)∗w(n)=∑k=−∞+∞h(k)w(n−k)x(n)=h(n)*w(n)=\sum^{+\infin}_{k=-\infin}h(k)w(n-k)x(n)=h(n)w(n)=k=+h(k)w(nk)其中,∗* 为卷积操作。如果确定白噪声 w(n)w(n)w(n) 的参数(假设为aka_kak),也就相当于确定系统中的参数 h(k)h(k)h(k)。这样,就能将研究随机信号转化成研究产生随机信号的系统。

自回归滑动平均模型

在自回归滑动平均(Auto Regression Moving Average,ARMA)模型中,随机噪声 x(n)x(n)x(n) 由白噪声 w(n)w(n)w(n)、信号的若干过去值 x(n−k)x(n-k)x(nk) 和若干激励值 w(n−k)w(n-k)w(nk)线性组合而成。用线性差分方程表示为x(n)+∑k=1pakx(n−k)=w(n)+∑k=1pbkw(n−k)x(n)+\sum^p_{k=1}a_kx(n-k)=w(n)+\sum^p_{k=1}b_kw(n-k)x(n)+k=1pakx(nk)=w(n)+k=1pbkw(nk)对两边进行z变换,有:∑k=0pakX(z)z−k=∑k=0pbkW(z)z−k\sum^p_{k=0}a_kX(z)z^{-k}=\sum^p_{k=0}b_kW(z)z^{-k}k=0pakX(z)zk=k=0pbkW(z)zk其中,aka_kak 为模型的参数,p为模型的阶数。系统函数为:H(z)=X(z)W(z)=∑k=0pbkz−k1+∑k=1pakz−kH(z)=\frac{X(z)}{W(z)}=\frac{\displaystyle\sum^p_{k=0}b_kz^{-k}}{1+\displaystyle\sum^p_{k=1}a_kz^{-k}}H(z)=W(z)X(z)=1+k=1pakzkk=0pbkzk

滑动平均模型

在滑动平均(Moving Average,MR)模型中,随机信号 x(n)x(n)x(n) 由白噪声 w(n)w(n)w(n) 和若干激励值 w(n−k)w(n-k)w(nk) 线性组合而成。用线性差分方程表示为:x(n)=w(n)+∑k=1pbkw(n−k)x(n)=w(n)+\sum^p_{k=1}b_kw(n-k)x(n)=w(n)+k=1pbkw(nk)对两边进行z变换,有:X(z)=∑k=0pbkW(z)z−kX(z)=\sum^p_{k=0}b_kW(z)z^{-k}X(z)=k=0pbkW(z)zk其中,aka_kak 为模型的参数,p为模型的阶数。系统函数为:H(z)=X(z)W(z)=X(z)=∑k=0pbkz−kH(z)=\frac{X(z)}{W(z)}=X(z)={\displaystyle\sum^p_{k=0}b_kz^{-k}}H(z)=W(z)X(z)=X(z)=k=0pbkzk

自回归模型

在自回归(Auto Regression,AR)模型中,随机信号 x(n)x(n)x(n) 由白噪声 w(n)w(n)w(n) 和信号本身的若干次过去值 x(n−k)x(n-k)x(nk) 线性组合而成。用线性差分方程表示为:x(n)+∑k=1pakx(n−k)=w(n)x(n)+\sum^p_{k=1}a_kx(n-k)=w(n)x(n)+k=1pakx(nk)=w(n)对两边进行z变换,有:∑k=0pakX(z)z−k=W(z)\sum^p_{k=0}a_kX(z)z^{-k}=W(z)k=0pakX(z)zk=W(z)其中,aka_kak 为模型的参数,p为模型的阶数。系统函数为:H(z)=X(z)W(z)=1W(z)=11+∑k=1pakz−kH(z)=\frac {X(z)} {W(z)}=\frac {1}{W(z)}=\frac {1}{1+\displaystyle{\sum^p_{k=1}a_kz^{-k}}}H(z)=W(z)X(z)=W(z)1=1+k=1pakzk1

自回归模型的参数估计

信号处理中的自相关函数,反映同一个信号在不同时刻取值间的相关程度。信号的自相关函数和信号的功率谱密度互为傅里叶变换,通过信号的自相关函数可以求得信号的功率谱密度。

随机噪声 x(n)x(n)x(n) 的自相关函数 Rxx(m)R_{xx}(m)Rxx(m) 为:Rxx(m)=E[x(n)x(n+m)]R_{xx}(m)=E[x(n)x(n+m)]Rxx(m)=E[x(n)x(n+m)]将随机信号 x(n)x(n)x(n) 的表达式代入,得:Rxx(m)=E{x(n)[w(n+m)−∑k=1pakx(n+m−k)]}=E[x(n)w(n+m)]−∑k=1pakE[x(n)x(n+m−k)]=Rxw(m)−∑k=1pakRxx(m−k)\begin{aligned}R_{xx}(m)&=E\{x(n)[w(n+m)-\sum^p_{k=1}a_kx(n+m-k)]\}\\&=E[x(n)w(n+m)]-\sum^p_{k=1}a_kE[x(n)x(n+m-k)]\\&=R_{xw}(m)-\sum^p_{k=1}a_kR_{xx}(m-k)\end{aligned}Rxx(m)=E{x(n)[w(n+m)k=1pakx(n+mk)]}=E[x(n)w(n+m)]k=1pakE[x(n)x(n+mk)]=Rxw(m)k=1pakRxx(mk)由于Rxw(m)={σp2m=00m>0R_{xw}(m)=\begin{cases}\sigma^2_p&\text{m=0}\\0&\text{m>0}\end{cases}Rxw(m)={σp20m=0m>0则自相关函数 Rxx(m)R_{xx}(m)Rxx(m) 可以表示为:Rxx(m)={σp2−∑k=1pakRxx(m−k)m=0−∑k=1pakRxx(m−k)m>0R_{xx}(m)=\begin{cases}\sigma^2_p-\displaystyle\sum^p_{k=1}a_kR_{xx}(m-k)&\text{m=0}\\ -\displaystyle\sum^p_{k=1}a_kR_{xx}(m-k) &\text{m>0}\end{cases}Rxx(m)=σp2k=1pakRxx(mk)k=1pakRxx(mk)m=0m>0 其中,m=0,1,...,pm=0,1,...,pm=0,1,...,p。用矩阵(Yule-Walker方程)可以表示为:[Rxx(0)Rxx(−1)⋯Rxx(−p)Rxx(1)Rxx(0)⋯Rxx(1−p)⋮⋮⋱⋮Rxx(p)Rxx(p−1)⋯Rxx(0)][1a1⋮ap]=[σp20⋮0] \begin{bmatrix} R_{xx}(0)&R_{xx}(-1)&\cdots&R_{xx}(-p)\\ R_{xx}(1)&R_{xx}(0)&\cdots&R_{xx}(1-p)\\ \vdots&\vdots&\ddots&\vdots\\ R_{xx}(p)&R_{xx}(p-1)&\cdots&R_{xx}(0)\\ \end{bmatrix} \begin{bmatrix} 1\\ a_1\\ \vdots\\ a_p \end{bmatrix}= \begin{bmatrix} \sigma^2_p\\ 0\\ \vdots\\ 0\\ \end{bmatrix}Rxx(0)Rxx(1)Rxx(p)Rxx(1)Rxx(0)Rxx(p1)Rxx(p)Rxx(1p)Rxx(0)1a1ap=σp200目前,求解Yule-Walker方程的方法主要有Yule-Walker法、Levinson-Durbin法、Burg法、协方差法和修正协方差法这五种,这五种方法有各自的优缺点。下面分别介绍这五种方法:

Yule-Walker法(预测误差最小)

对于预测模型,假设第n个数据 x(n)x(n)x(n) 是由前p个数据 x(n−p),x(n−p+1),...,x(n−1)x(n-p),x(n-p+1),...,x(n-1)x(np),x(np+1),...,x(n1) 预测得到的。即:x^(n)=−∑k=1pakx(n−k)\hat{x}(n)=-\sum^p_{k=1}a_kx(n-k)x^(n)=k=1pakx(nk)那么预测误差 e(n)e(n)e(n) 为:e(n)=x(n)+x^(n)=x(n)+∑k=1pakx(n−k)e(n)=x(n)+\hat{x}(n)=x(n)+\sum^p_{k=1}a_kx(n-k)e(n)=x(n)+x^(n)=x(n)+k=1pakx(nk)而对于自回归(AR)模型而言,有:w(n)=x(n)+∑k=1pakx(n−k)w(n)=x(n)+\sum^p_{k=1}a_kx(n-k)w(n)=x(n)+k=1pakx(nk)如果自回归模型和预测模型的系数 aka_kak 相同,那么预测误差 e(n)e(n)e(n) 就等于白噪声 w(n)w(n)w(n)。因此,Yule-Walker法的基本思想就是计算预测误差功率 ρe\rho_eρe 最小时模型的预测系数 aka_kakρe=1NE[e2(n)]=1NE[x(n)+∑k=1pakx(n−k)]2\rho_e=\frac 1 N E[e^2(n)]=\frac{1}{N}E[x(n)+\sum^p_{k=1}a_kx(n-k)]^2ρe=N1E[e2(n)]=N1E[x(n)+k=1pakx(nk)]2为了使预测误差功率最小,有:∂ρe∂ak=∂E[e2(n)]∂ak=0\frac{\partial{\rho_e}}{\partial a_k}=\frac{\partial{E[e^2(n)}]}{\partial a_k}=0akρe=akE[e2(n)]=0E[e2(n)]=E{[x(n)+∑k=1pakx(n−k)]2}=E[x2(n)]+2∑k=1pakE[x(n)x(n−k)]+∑i=1pai∑k=1pakE[x(n−i)x(n−k)]=Rxx(0)+2∑k=1pakRxx(k)+∑i=1pai∑k=1pakRxx(i−k)\begin{aligned}E[e^2(n)]&=E\{[x(n)+\sum^p_{k=1}a_kx(n-k)]^2\}\\&=E{[x^2(n)]}+2\sum^p_{k=1}a_kE[x(n)x(n-k)]+\sum^p_{i=1}a_i\sum^p_{k=1}a_kE[x(n-i)x(n-k)]\\&=R_{xx}(0)+2\sum^p_{k=1}a_kR_{xx}(k)+\sum^p_{i=1}a_i\sum^p_{k=1}a_kR_{xx}(i-k)\end{aligned}E[e2(n)]=E{[x(n)+k=1pakx(nk)]2}=E[x2(n)]+2k=1pakE[x(n)x(nk)]+i=1paik=1pakE[x(ni)x(nk)]=Rxx(0)+2k=1pakRxx(k)+i=1paik=1pakRxx(ik)则有:∂E[e2(n)]∂ak=2Rxx(k)+2∑i=1paiRxx(i−k)=0\frac{\partial{E[e^2(n)}]}{\partial a_k}=2R_{xx}(k)+2\sum^p_{i=1}a_iR_{xx}(i-k)=0akE[e2(n)]=2Rxx(k)+2i=1paiRxx(ik)=0即:∑i=1paiRxx(i−k)=−Rxx(k)\sum^p_{i=1}a_iR_{xx}(i-k)=-R_{xx}(k)i=1paiRxx(ik)=Rxx(k)其中,k=1,2,...,pk=1,2,...,pk=1,2,...,p。写成矩阵形式:[Rxx(0)Rxx(1)⋯Rxx(p−1)Rxx(−1)Rxx(0)⋯Rxx(p−2)⋮⋮⋱⋮Rxx(1−p)Rxx(2−p)⋯Rxx(0)][a1a2⋮ap]=[−Rxx(1)−Rxx(2)⋮−Rxx(p)] \begin{bmatrix} R_{xx}(0)&R_{xx}(1)&\cdots&R_{xx}(p-1)\\ R_{xx}(-1)&R_{xx}(0)&\cdots&R_{xx}(p-2)\\ \vdots&\vdots&\ddots&\vdots\\ R_{xx}(1-p)&R_{xx}(2-p)&\cdots&R_{xx}(0)\\ \end{bmatrix} \begin{bmatrix} a_1\\ a_2\\ \vdots\\ a_p \end{bmatrix}= \begin{bmatrix} -R_{xx}(1)\\ -R_{xx}(2)\\ \vdots\\ -R_{xx}(p)\\ \end{bmatrix}Rxx(0)Rxx(1)Rxx(1p)Rxx(1)Rxx(0)Rxx(2p)Rxx(p1)Rxx(p2)Rxx(0)a1a2ap=Rxx(1)Rxx(2)Rxx(p)
则预测系数 aka_kak 可以表示成:[a1a2⋮ap]=[Rxx(0)Rxx(1)⋯Rxx(p−1)Rxx(−1)Rxx(0)⋯Rxx(p−2)⋮⋮⋱⋮Rxx(1−p)Rxx(2−p)⋯Rxx(0)]−1[−Rxx(1)−Rxx(2)⋮−Rxx(p)] \begin{bmatrix} a_1\\ a_2\\ \vdots\\ a_p \end{bmatrix}= \begin{bmatrix} R_{xx}(0)&R_{xx}(1)&\cdots&R_{xx}(p-1)\\ R_{xx}(-1)&R_{xx}(0)&\cdots&R_{xx}(p-2)\\ \vdots&\vdots&\ddots&\vdots\\ R_{xx}(1-p)&R_{xx}(2-p)&\cdots&R_{xx}(0)\\ \end{bmatrix}^{-1} \begin{bmatrix} -R_{xx}(1)\\ -R_{xx}(2)\\ \vdots\\ -R_{xx}(p)\\ \end{bmatrix}a1a2ap=Rxx(0)Rxx(1)Rxx(1p)Rxx(1)Rxx(0)Rxx(2p)Rxx(p1)Rxx(p2)Rxx(0)1Rxx(1)Rxx(2)Rxx(p)
然后根据模型的系数 aka_kakσp2\sigma^2_pσp2σp2=Rxx(0)+∑k=1pakRxx(−k)\sigma^2_p=R_{xx}(0)+\sum^p_{k=1}a_kR_{xx}(-k)σp2=Rxx(0)+k=1pakRxx(k)

Levinson-Durbin法(递归)

假设 ppp 阶自回归模型的系数为 apka_{pk}apk,其中 ppp 表示此时自回归模型的阶数,也就是当前阶数情况下总共有几个系数,kkk 表示当前系数的序列索引。对于Yule-Walker方程,

p=1p=1p=1 时,有:[Rxx(0)Rxx(1)Rxx(1)Rxx(0)][1a11]=[σ120] \begin{bmatrix} R_{xx}(0)&R_{xx}(1)\\ R_{xx}(1)&R_{xx}(0)\\ \end{bmatrix} \begin{bmatrix} 1\\ a_{11}\\ \end{bmatrix}= \begin{bmatrix} \sigma^2_1\\ 0\\ \end{bmatrix} [Rxx(0)Rxx(1)Rxx(1)Rxx(0)][1a11]=[σ120]解得:a11=−Rxx(1)Rxx(0)a_{11}=-\frac{R_{xx}(1)}{R_{xx}(0)}a11=Rxx(0)Rxx(1)σ12=(1−∣a11∣2)Rxx(0) \sigma^2_1=(1-|a_{11}|^2)R_{xx}(0)σ12=(1a112)Rxx(0)p=2p=2p=2 时,有:[Rxx(0)Rxx(1)Rxx(2)Rxx(1)Rxx(0)Rxx(1)Rxx(2)Rxx(1)Rxx(0)][1a21a22]=[σ2200]\begin{bmatrix} R_{xx}(0)&R_{xx}(1)&R_{xx}(2)\\ R_{xx}(1)&R_{xx}(0)&R_{xx}(1)\\ R_{xx}(2)&R_{xx}(1)&R_{xx}(0)\\ \end{bmatrix} \begin{bmatrix} 1\\ a_{21}\\ a_{22}\\ \end{bmatrix}= \begin{bmatrix} \sigma^2_2\\ 0\\ 0\\ \end{bmatrix}Rxx(0)Rxx(1)Rxx(2)Rxx(1)Rxx(0)Rxx(1)Rxx(2)Rxx(1)Rxx(0)1a21a22=σ2200解得:a22=−Rxx(2)−a11Rxx(1)σ12a_{22}=-\frac{R_{xx}(2)-a_{11}R_{xx}(1)}{\sigma^2_1}a22=σ12Rxx(2)a11Rxx(1)a21=a11+a22a11 a_{21}=a_{11}+a_{22}a_{11}a21=a11+a22a11σ22=(1−∣a22∣2σ12)\sigma^2_2=(1-|a_{22}|^2\sigma^2_1)σ22=(1a222σ12)推广到 kkk 阶时,有:akk=−Rxx(k)−∑l=1k−1ak−1,lRxx(k−l)σk−12a_{kk}=-\frac{R_{xx}(k)-\displaystyle\sum^{k-1}_{l=1}a_{k-1,l}R_{xx}(k-l)}{\sigma^2_{k-1}}akk=σk12Rxx(k)l=1k1ak1,lRxx(kl)aki=ak−1,i+akkak−1,k−i,i=1,2,...,k−1a_{ki}=a_{k-1,i}+a_{kk}a_{k-1,k-i},i=1,2,...,k-1aki=ak1,i+akkak1,ki,i=1,2,...,k1σk2=(1−∣akk∣2)σk−12,σ02=Rxx(0)\sigma^2_k=(1-|a_{kk}|^2)\sigma^2_{k-1},\sigma^2_0=R_{xx}(0)σk2=(1akk2)σk12,σ02=Rxx(0)Levinson-Durbin法的基本思想就是通过递归到所需要的阶数时,求得所估计的模型系数 api,i=1,2,...,ka_{pi},i=1,2,...,kapi,i=1,2,...,kσp2\sigma^2_pσp2

Burg法(前后向平均预测误差最小+递归)

对于预测模型,假设随机信号 x(n)x(n)x(n) 是由 ppp 个数据 x(n−p),x(n−p+1),...,x(n−1)x(n-p),x(n-p+1),...,x(n-1)x(np),x(np+1),...,x(n1) 预测得到的:x^(n)=−∑k=1papkx(n−k)\hat{x}(n)=-\sum^p_{k=1}a_{pk}x(n-k)x^(n)=k=1papkx(nk)则预测误差 ep(n)e_p(n)ep(n) 为:ep(n)=x(n)−x^(n)=x(n)+∑k=1papkx(n−k)e_p(n)=x(n)-\hat{x}(n)=x(n)+\sum^p_{k=1}a_{pk}x(n-k)ep(n)=x(n)x^(n)=x(n)+k=1papkx(nk)而随机信号 x(n−p)x(n-p)x(np) 是由 ppp 个数据 x(n−p+1),x(n−p+2),...,x(n)x(n-p+1),x(n-p+2),...,x(n)x(np+1),x(np+2),...,x(n) 预测得到的:x^(n−p)=−∑k=1papkx(n−p+k)\hat{x}(n-p)=-\sum^p_{k=1}a_{pk}x(n-p+k)x^(np)=k=1papkx(np+k)则预测误差 bp(n)b_p(n)bp(n) 为:bp(n)=x(n−p)−x^(n−p)=x(n−p)+∑k=1papkx(n−p+k)b_p(n)=x(n-p)-\hat{x}(n-p)=x(n-p)+\sum^p_{k=1}a_{pk}x(n-p+k)bp(n)=x(np)x^(np)=x(np)+k=1papkx(np+k)ep(n)e_p(n)ep(n)bp(n)b_p(n)bp(n) 分别为前向预测误差后向预测误差。Burg法的基本思想就是递归地求前后向预测误差平均功率 ρp\rho_pρp 最小时的反射系数 Kp=appK_p=a_{pp}Kp=app,然后再根据反射系数 KpK_pKp 求模型的参数 apka_{pk}apkσp2\sigma^2_{p}σp2

假设随机信号 x(n)x(n)x(n) 的观测区间为 0≤n≤N−10\le n\le N-10nN1,则前向预测功率 ρpe\rho_{pe}ρpe、后向预测功率 ρpb\rho_{pb}ρpb 和平均预测功率 ρp\rho_{p}ρp 分别为:ρpe=1N−p∑n=pN−1∣ep(n)∣2=1N−p∑n=pN−1∣x(n)+∑k=1papkx(n−k)∣2\rho_{pe}=\frac{1}{N-p}\sum^{N-1}_{n=p}|e_p(n)|^2=\frac{1}{N-p}\sum^{N-1}_{n=p}|x(n)+\sum^p_{k=1}a_{pk}x(n-k)|^2ρpe=Np1n=pN1ep(n)2=Np1n=pN1x(n)+k=1papkx(nk)2ρpb=1N−p∑n=pN−1∣bp(n)∣2=1N−p∑n=pN−1∣x(n−p)+∑k=1papkx(n−p+k)∣2\rho_{pb}=\frac{1}{N-p}\sum^{N-1}_{n=p}|b_p(n)|^2=\frac{1}{N-p}\sum^{N-1}_{n=p}|x(n-p)+\sum^p_{k=1}a_{pk}x(n-p+k)|^2ρpb=Np1n=pN1bp(n)2=Np1n=pN1x(np)+k=1papkx(np+k)2 ρp=12(ρpe+ρpb)\rho_p=\frac{1}{2}(\rho_{pe}+\rho_{pb})ρp=21(ρpe+ρpb)当反射系数最小时,有:∂ρp∂Kp=0\frac{\partial{\rho_p}}{\partial{K_p}}=0Kpρp=0解得:Kp=app=−2∑n=pN−1[ep−1(n)bp−1(n−1)]∑n=pN−1[ep−12(n)+bp−12(n−1)]K_p=a_{pp}=\frac{-2\displaystyle\sum^{N-1}_{n=p}[e_{p-1}(n)b_{p-1}(n-1)]}{\displaystyle\sum^{N-1}_{n=p}[e^2_{p-1}(n)+b^2_{p-1}(n-1)]}Kp=app=n=pN1[ep12(n)+bp12(n1)]2n=pN1[ep1(n)bp1(n1)]由于 e0(n)=b0(n)=x(n)e_0(n)=b_0(n)=x(n)e0(n)=b0(n)=x(n),且前向预测误差和后向预测误差分别存在递推公式:ep(n)=ep−1(n)+Kpbp−1(n−1)e_p(n)=e_{p-1}(n)+K_pb_{p-1}(n-1)ep(n)=ep1(n)+Kpbp1(n1)bp(n)=bp−1(n−1)+Kpep−1(n)b_p(n)=b_{p-1}(n-1)+K_pe_{p-1}(n)bp(n)=bp1(n1)+Kpep1(n)故可以根据反射系数 KpK_pKp 递推地求出模型的参数apia_{pi}apiσp2\sigma^2_pσp2,有:api=ap−1,i+Kpap−1,p−i,i=1,2,...,p−1a_{pi}=a_{p-1,i}+K_pa_{p-1,p-i},i=1,2,...,p-1api=ap1,i+Kpap1,pi,i=1,2,...,p1σp2=(1−Kp2)σp−12\sigma^2_p=(1-K_p^2)\sigma^2_{p-1}σp2=(1Kp2)σp12

协方差法(预测误差最小)

协方差法和Yule-Walker法都是通过最小化预测功率求模型的参数。但不同于Yule-Walker法,协方差法的预测功率为:ρe=1N−p∑n=pN−1∣e2(n)∣=1N−p∑n=pN−1∣x(n)+∑k=1papkx(n−k)∣2\rho_e=\frac{1}{N-p}\sum^{N-1}_{n=p}|e^2(n)|=\frac{1}{N-p}\sum^{N-1}_{n=p}|x(n)+\sum^p_{k=1}a_{pk}x(n-k)|^2ρe=Np1n=pN1e2(n)=Np1n=pN1x(n)+k=1papkx(nk)2当预测功率最小时,有:∂ρe∂apk=1N−p∑n=pN−1[x(n)+∑k=1papkx(n−k)]x(n−l)=0\frac{\partial{\rho_e}}{\partial{a_{pk}}}=\frac{1}{N-p}\sum^{N-1}_{n=p}[x(n)+\sum^p_{k=1}a_{pk}x(n-k)]x(n-l)=0apkρe=Np1n=pN1[x(n)+k=1papkx(nk)]x(nl)=0其中,l=1,2,...,pl=1,2,...,pl=1,2,...,p。用 c^xx(k,l)\hat{c}_{xx}(k,l)c^xx(k,l) 来表示上式,得:∑k=1papkc^xx(l,k)=−c^xx(l,0)\sum^p_{k=1}a_{pk}\hat{c}_{xx}(l,k)=-\hat{c}_{xx}(l,0)k=1papkc^xx(l,k)=c^xx(l,0)其中:c^xx(k,l)={1N−p∑n=pN−1[x(n−k)x(n−l)]c^xx(l,k)\hat{c}_{xx}(k,l)=\begin{cases}\displaystyle\frac{1}{N-p}\sum^{N-1}_{n=p}[x(n-k)x(n-l)]\\\hat{c}_{xx}(l,k)\end{cases}c^xx(k,l)=Np1n=pN1[x(nk)x(nl)]c^xx(l,k)写成矩阵形式为:[c^xx(1,1)c^xx(1,2)⋯c^xx(1,p)c^xx(2,1)c^xx(2,2)⋯c^xx(2,p)⋮⋮⋱⋮c^xx(p,1)c^xx(p,2)⋯c^xx(p,p)][ap1ap2⋮app]=[−c^xx(1,0)−c^xx(2,0)⋮−c^xx(p,0)] \begin{bmatrix} \hat{c}_{xx}(1,1)&\hat{c}_{xx}(1,2)&\cdots&\hat{c}_{xx}(1,p)\\ \hat{c}_{xx}(2,1)&\hat{c}_{xx}(2,2)&\cdots&\hat{c}_{xx}(2,p)\\ \vdots&\vdots&\ddots&\vdots\\ \hat{c}_{xx}(p,1)&\hat{c}_{xx}(p,2)&\cdots&\hat{c}_{xx}(p,p)\\ \end{bmatrix} \begin{bmatrix} a_{p1}\\ a_{p2}\\ \vdots\\ a_{pp}\\ \end{bmatrix}= \begin{bmatrix} -\hat{c}_{xx}(1,0)\\ -\hat{c}_{xx}(2,0)\\ \vdots\\ -\hat{c}_{xx}(p,0)\\ \end{bmatrix}c^xx(1,1)c^xx(2,1)c^xx(p,1)c^xx(1,2)c^xx(2,2)c^xx(p,2)c^xx(1,p)c^xx(2,p)c^xx(p,p)ap1ap2app=c^xx(1,0)c^xx(2,0)c^xx(p,0)则可以求出模型的参数 apka_{pk}apk[ap1ap2⋮app]=[c^xx(1,1)c^xx(1,2)⋯c^xx(1,p)c^xx(2,1)c^xx(2,2)⋯c^xx(2,p)⋮⋮⋱⋮c^xx(p,1)c^xx(p,2)⋯c^xx(p,p)]−1[−c^xx(1,0)−c^xx(2,0)⋮−c^xx(p,0)] \begin{bmatrix} a_{p1}\\ a_{p2}\\ \vdots\\ a_{pp}\\ \end{bmatrix}= \begin{bmatrix} \hat{c}_{xx}(1,1)&\hat{c}_{xx}(1,2)&\cdots&\hat{c}_{xx}(1,p)\\ \hat{c}_{xx}(2,1)&\hat{c}_{xx}(2,2)&\cdots&\hat{c}_{xx}(2,p)\\ \vdots&\vdots&\ddots&\vdots\\ \hat{c}_{xx}(p,1)&\hat{c}_{xx}(p,2)&\cdots&\hat{c}_{xx}(p,p)\\ \end{bmatrix}^{-1} \begin{bmatrix} -\hat{c}_{xx}(1,0)\\ -\hat{c}_{xx}(2,0)\\ \vdots\\ -\hat{c}_{xx}(p,0)\\ \end{bmatrix}ap1ap2app=c^xx(1,1)c^xx(2,1)c^xx(p,1)c^xx(1,2)c^xx(2,2)c^xx(p,2)c^xx(1,p)c^xx(2,p)c^xx(p,p)1c^xx(1,0)c^xx(2,0)c^xx(p,0)

σp2\sigma^2_pσp2 的估计值:σp2=ρmin=1N−p∑n=pN−1[x(n)+∑k=1papkx(n−k)][x(n)+∑l=1papkx(n−l)]=1N−p∑n=pN−1[x(n)+∑k=1papkx(n−k)]x(n)=c^xx(0,0)+∑k=1papkc^xx(0,k)\begin{aligned}\sigma^2_p=\rho_{min}&=\frac{1}{N-p}\sum^{N-1}_{n=p}[x(n)+\sum^p_{k=1}a_{pk}x(n-k)][x(n)+\sum^p_{l=1}a_{pk}x(n-l)]\\&=\frac{1}{N-p}\sum^{N-1}_{n=p}[x(n)+\sum^p_{k=1}a_{pk}x(n-k)]x(n)\\&=\hat{c}_{xx}(0,0)+\sum^p_{k=1}a_{pk}\hat{c}_{xx}(0,k)\end{aligned}σp2=ρmin=Np1n=pN1[x(n)+k=1papkx(nk)][x(n)+l=1papkx(nl)]=Np1n=pN1[x(n)+k=1papkx(nk)]x(n)=c^xx(0,0)+k=1papkc^xx(0,k)可以将参数 apka_{pk}apkσp2\sigma^2_pσp2 的求解合并在一个矩阵中,有:[c^xx(0,0)c^xx(0,1)⋯c^xx(0,p)c^xx(1,0)c^xx(1,1)⋯c^xx(1,p)⋮⋮⋱⋮c^xx(p,0)c^xx(p,1)⋯c^xx(p,p)][1ap1⋮app]=[σp20⋮0] \begin{bmatrix} \hat{c}_{xx}(0,0)&\hat{c}_{xx}(0,1)&\cdots&\hat{c}_{xx}(0,p)\\ \hat{c}_{xx}(1,0)&\hat{c}_{xx}(1,1)&\cdots&\hat{c}_{xx}(1,p)\\ \vdots&\vdots&\ddots&\vdots\\ \hat{c}_{xx}(p,0)&\hat{c}_{xx}(p,1)&\cdots&\hat{c}_{xx}(p,p)\\ \end{bmatrix} \begin{bmatrix} 1\\ a_{p1}\\ \vdots\\ a_{pp}\\ \end{bmatrix}= \begin{bmatrix} \sigma^2_p\\ 0\\ \vdots\\ 0\\ \end{bmatrix}c^xx(0,0)c^xx(1,0)c^xx(p,0)c^xx(0,1)c^xx(1,1)c^xx(p,1)c^xx(0,p)c^xx(1,p)c^xx(p,p)1ap1app=σp200

修正协方差法(前后向平均预测误差最小)

修正的协方差法与Burg法类似,使用前后向预测平均误差最小的方法来估计自回归模型的参数。但不同于Burg法,修正的协方差法的后向预测误差 bp(n)b_p(n)bp(n) 与Burg法中的后向预测误差不一样。

假设随机信号 x(n)x(n)x(n) 是由 ppp 个数据 x(n−p),x(n−p+1),...,x(n−1)x(n-p),x(n-p+1),...,x(n-1)x(np),x(np+1),...,x(n1) 预测得到的,则有:x^(n)=−∑k=1papkx(n−k)\hat{x}(n)=-\sum^p_{k=1}a_{pk}x(n-k)x^(n)=k=1papkx(nk)在修正的协方差法中,前向预测误差 ep(n)e_p(n)ep(n) 与Burg法中的前向预测误差一致:ep(n)=x(n)−x^(n)=x(n)+∑k=1papkx(n−k)e_p(n)=x(n)-\hat{x}(n)=x(n)+\sum^p_{k=1}a_{pk}x(n-k)ep(n)=x(n)x^(n)=x(n)+k=1papkx(nk)对于后向预测误差 bp(n)b_p(n)bp(n),假设随机信号 x(n)x(n)x(n) 是由 ppp 个数据 x(n+1),x(n+2),...,x(n+p)x(n+1),x(n+2),...,x(n+p)x(n+1),x(n+2),...,x(n+p) 预测得到的:x^(n)=−∑k=1papkx(n+k)\hat{x}(n)=-\sum^p_{k=1}a_{pk}x(n+k)x^(n)=k=1papkx(n+k)那么,后向预测误差 bp(n)b_p(n)bp(n) 可以表示为:bp(n)=x(n)−x^(n)=x(n)+∑k=1papkx(n+k)b_p(n)=x(n)-\hat{x}(n)=x(n)+\sum^p_{k=1}a_{pk}x(n+k)bp(n)=x(n)x^(n)=x(n)+k=1papkx(n+k)假设随机信号 x(n)x(n)x(n) 的观测区间为 0≤n≤N−10\le n\le N-10nN1,则前向预测功率 ρpe\rho_{pe}ρpe、后向预测功率 ρpb\rho_{pb}ρpb 和平均预测功率 ρp\rho_{p}ρp 可以分别表示为:ρpe=1N−p∑n=pN−1∣ep(n)∣2=1N−p∑n=pN−1∣x(n)+∑k=1papkx(n−k)∣2\rho_{pe}=\frac{1}{N-p}\sum^{N-1}_{n=p}|e_p(n)|^2=\frac{1}{N-p}\sum^{N-1}_{n=p}|x(n)+\sum^p_{k=1}a_{pk}x(n-k)|^2ρpe=Np1n=pN1ep(n)2=Np1n=pN1x(n)+k=1papkx(nk)2ρpb=1N−p∑n=0N−1−p∣bp(n)∣2=1N−p∑n=0N−1−p∣x(n)+∑k=1papkx(n+k)∣2\rho_{pb}=\frac{1}{N-p}\sum^{N-1-p}_{n=0}|b_p(n)|^2=\frac{1}{N-p}\sum^{N-1-p}_{n=0}|x(n)+\sum^p_{k=1}a_{pk}x(n+k)|^2ρpb=Np1n=0N1pbp(n)2=Np1n=0N1px(n)+k=1papkx(n+k)2ρp=12(ρpe+ρpb)\rho_p=\frac{1}{2}(\rho_{pe}+\rho_{pb})ρp=21(ρpe+ρpb)要使平均误差功率 ρp\rho_pρp 最小,则:∂ρp∂apk=1N−p{∑n=pN−1[x(n)+∑k=1papkx(n−k)]x(n−l)+∑n=0N−1−p[x(n)+∑k=1papkx(n+k)]x(n+l)}=0\frac{\partial{\rho_p}}{\partial{a_{pk}}}=\frac{1}{N-p}\{\sum^{N-1}_{n=p}[x(n)+\sum^p_{k=1}a_{pk}x(n-k)]x(n-l)+\sum^{N-1-p}_{n=0}[x(n)+\sum^p_{k=1}a_{pk}x(n+k)]x(n+l)\}=0apkρp=Np1{n=pN1[x(n)+k=1papkx(nk)]x(nl)+n=0N1p[x(n)+k=1papkx(n+k)]x(n+l)}=0其中,l=1,2,...,pl=1,2,...,pl=1,2,...,p。经过简化后,有:∑k=1papk[∑n=pN−1x(n−k)x(n−l)+∑n=0N−1−px(n+k)x(n+l)]=−[∑n=pN−1x(n)x(n−l)+∑n=0N−1−px(n)x(n+l)]\sum^p_{k=1}a_{pk}[\sum^{N-1}_{n=p}x(n-k)x(n-l)+\sum^{N-1-p}_{n=0}x(n+k)x(n+l)]=-[\sum^{N-1}_{n=p}x(n)x(n-l)+\sum^{N-1-p}_{n=0}x(n)x(n+l)]k=1papk[n=pN1x(nk)x(nl)+n=0N1px(n+k)x(n+l)]=[n=pN1x(n)x(nl)+n=0N1px(n)x(n+l)]则上式可以表示为:∑k=1papkc^xx(l,k)=−c^xx(l,0)\sum^p_{k=1}a_{pk}\hat{c}_{xx}(l,k)=-\hat{c}_{xx}(l,0)k=1papkc^xx(l,k)=c^xx(l,0)其中:c^xx(l,k)={12(N−p)∑n=pN−1x(n−k)x(n−l)+∑n=0N−1−px(n+k)x(n+l)c^xx(k,l)\hat{c}_{xx}(l,k)=\begin{cases}\displaystyle\frac{1}{2(N-p)}\sum^{N-1}_{n=p}x(n-k)x(n-l)+\sum^{N-1-p}_{n=0}x(n+k)x(n+l)\\\hat{c}_{xx}(k,l)\end{cases}c^xx(l,k)=2(Np)1n=pN1x(nk)x(nl)+n=0N1px(n+k)x(n+l)c^xx(k,l)写成矩阵形式:[c^xx(1,1)c^xx(1,2)⋯c^xx(1,p)c^xx(2,1)c^xx(2,2)⋯c^xx(2,p)⋮⋮⋱⋮c^xx(p,1)c^xx(p,2)⋯c^xx(p,p)][ap1ap2⋮app]=−[c^xx(1,0)c^xx(2,0)⋮c^xx(p,0)] \begin{bmatrix} \hat{c}_{xx}(1,1)&\hat{c}_{xx}(1,2)&\cdots&\hat{c}_{xx}(1,p)\\ \hat{c}_{xx}(2,1)&\hat{c}_{xx}(2,2)&\cdots&\hat{c}_{xx}(2,p)\\ \vdots&\vdots&\ddots&\vdots\\ \hat{c}_{xx}(p,1)&\hat{c}_{xx}(p,2)&\cdots&\hat{c}_{xx}(p,p)\\ \end{bmatrix} \begin{bmatrix} a_{p1}\\ a_{p2}\\ \vdots\\ a_{pp}\\ \end{bmatrix}=- \begin{bmatrix} \hat{c}_{xx}(1,0)\\ \hat{c}_{xx}(2,0)\\ \vdots\\ \hat{c}_{xx}(p,0)\\ \end{bmatrix} c^xx(1,1)c^xx(2,1)c^xx(p,1)c^xx(1,2)c^xx(2,2)c^xx(p,2)c^xx(1,p)c^xx(2,p)c^xx(p,p)ap1ap2app=c^xx(1,0)c^xx(2,0)c^xx(p,0)则模型的参数 apka_{pk}apk 估计为:[ap1ap2⋮app]=[c^xx(1,1)c^xx(1,2)⋯c^xx(1,p)c^xx(2,1)c^xx(2,2)⋯c^xx(2,p)⋮⋮⋱⋮c^xx(p,1)c^xx(p,2)⋯c^xx(p,p)]−1[−c^xx(1,0)−c^xx(2,0)⋮−c^xx(p,0)] \begin{bmatrix} a_{p1}\\ a_{p2}\\ \vdots\\ a_{pp}\\ \end{bmatrix}=\begin{bmatrix} \hat{c}_{xx}(1,1)&\hat{c}_{xx}(1,2)&\cdots&\hat{c}_{xx}(1,p)\\ \hat{c}_{xx}(2,1)&\hat{c}_{xx}(2,2)&\cdots&\hat{c}_{xx}(2,p)\\ \vdots&\vdots&\ddots&\vdots\\ \hat{c}_{xx}(p,1)&\hat{c}_{xx}(p,2)&\cdots&\hat{c}_{xx}(p,p)\\ \end{bmatrix}^{-1} \begin{bmatrix} -\hat{c}_{xx}(1,0)\\ -\hat{c}_{xx}(2,0)\\ \vdots\\ -\hat{c}_{xx}(p,0)\\ \end{bmatrix}ap1ap2app=c^xx(1,1)c^xx(2,1)c^xx(p,1)c^xx(1,2)c^xx(2,2)c^xx(p,2)c^xx(1,p)c^xx(2,p)c^xx(p,p)1c^xx(1,0)c^xx(2,0)c^xx(p,0)白噪声的方差 σp2\sigma^2_pσp2 估计为:σp2=ρmin=12(N−p){∑n=pN−1[x(n)+∑k=1papkx(n−k)][x(n)+∑l=1papkx(n−l)]+∑n=0N−1−p[x(n)+∑k=1papkx(n+k)][x(n)+∑l=1papkx(n+l)]}=12(N−p){∑n=pN−1[x(n)+∑k=1papkx(n−k)]x(n)+∑n=0N−1−p[x(n)+∑k=1papkx(n+k)]x(n)}=12(N−p)[∑n=pN−1x2(n)+∑n=0N−1−px2(n)]+∑k=1papk{12(N−p)[∑n=pN−1x(n)x(n−k)+∑n=0N−1−px(n)x(n+k)]}=c^xx(0,0)+∑k=1papkc^xx(0,k)\begin{aligned}\sigma^2_p&=\rho_{min}\\&=\frac{1}{2(N-p)}\{\sum^{N-1}_{n=p}[x(n)+\sum^p_{k=1}a_{pk}x(n-k)][x(n)+\sum^p_{l=1}a_{pk}x(n-l)]+\sum^{N-1-p}_{n=0}[x(n)+\sum^p_{k=1}a_{pk}x(n+k)][x(n)+\sum^p_{l=1}a_{pk}x(n+l)]\}\\&=\frac{1}{2(N-p)}\{\sum^{N-1}_{n=p}[x(n)+\sum^p_{k=1}a_{pk}x(n-k)]x(n)+\sum^{N-1-p}_{n=0}[x(n)+\sum^p_{k=1}a_{pk}x(n+k)]x(n)\}\\&=\frac{1}{2(N-p)}[\sum^{N-1}_{n=p}x^2(n)+\sum^{N-1-p}_{n=0}x^2(n)]+\sum^p_{k=1}a_{pk}\{\frac{1}{2(N-p)}[\sum^{N-1}_{n=p}x(n)x(n-k)+\sum^{N-1-p}_{n=0}x(n)x(n+k)]\}\\&=\hat{c}_{xx}(0,0)+\sum^p_{k=1}a_{pk}\hat{c}_{xx}(0,k)\end{aligned}σp2=ρmin=2(Np)1{n=pN1[x(n)+k=1papkx(nk)][x(n)+l=1papkx(nl)]+n=0N1p[x(n)+k=1papkx(n+k)][x(n)+l=1papkx(n+l)]}=2(Np)1{n=pN1[x(n)+k=1papkx(nk)]x(n)+n=0N1p[x(n)+k=1papkx(n+k)]x(n)}=2(Np)1[n=pN1x2(n)+n=0N1px2(n)]+k=1papk{2(Np)1[n=pN1x(n)x(nk)+n=0N1px(n)x(n+k)]}=c^xx(0,0)+k=1papkc^xx(0,k)合并成一个矩阵来求模型参数 apka_{pk}apkσp2\sigma^2_pσp2,则有:[c^xx(0,0)c^xx(0,1)⋯c^xx(0,p)c^xx(1,0)c^xx(1,1)⋯c^xx(1,p)⋮⋮⋱⋮c^xx(p,0)c^xx(p,1)⋯c^xx(p,p)][1ap1⋮app]=−[σp20⋮0] \begin{bmatrix} \hat{c}_{xx}(0,0)&\hat{c}_{xx}(0,1)&\cdots&\hat{c}_{xx}(0,p)\\ \hat{c}_{xx}(1,0)&\hat{c}_{xx}(1,1)&\cdots&\hat{c}_{xx}(1,p)\\ \vdots&\vdots&\ddots&\vdots\\ \hat{c}_{xx}(p,0)&\hat{c}_{xx}(p,1)&\cdots&\hat{c}_{xx}(p,p)\\ \end{bmatrix} \begin{bmatrix} 1\\ a_{p1}\\ \vdots\\ a_{pp}\\ \end{bmatrix}=- \begin{bmatrix} \sigma^2_p\\ 0\\ \vdots\\ 0\\ \end{bmatrix} c^xx(0,0)c^xx(1,0)c^xx(p,0)c^xx(0,1)c^xx(1,1)c^xx(p,1)c^xx(0,p)c^xx(1,p)c^xx(p,p)1ap1app=σp200

自回归模型的功率谱估计

当求出 ppp 阶模型的参数 aka_kak 和白噪声方差 σp2\sigma^2_pσp2,就可以根据这些已知条件来计算模型的功率谱 Pxx(ejw)P_{xx}(e^{jw})Pxx(ejw)Pxx(ejw)=σp2∣H(ejw)∣2=σp2∣11+∑k=1pake−jwk∣2P_{xx}(e^{jw})=\sigma^2_p|H(e^{jw})|^2=\sigma^2_p\begin{vmatrix}\frac{1}{1+\displaystyle\sum^p_{k=1}a_ke^{-jwk}}\end{vmatrix}^2Pxx(ejw)=σp2H(ejw)2=σp21+k=1pakejwk12

MATLAB中AR模型功率谱估计AR阶次估计的实现-psd_my.rar (最近看了几个关于功率谱的问题,有关AR模型的谱估计,在此分享一下,希望大家不吝指正) (声明:本文内容摘自我的毕业论文——心率变异信号的预处理及功率谱估计) (按:AR模型功率谱估计是对非平稳随机信号功率谱估计的常用方法,但是其模型阶次的估计,除了HOSA工具箱里的arorder函数外,没有现成的函数可用,arorder函数是基于矩阵SVD分解的阶次估计方法,为了比较各种阶次估计方法的区别,下面的函数使用了'FPE', 'AIC', 'MDL', 'CAT'集中准则一并估计,并采用试验方法确定那一个阶次更好。) ………………………………以上省略…………………………………………………………………… 假设原始数据序列为x,那么n阶参数使用最小二乘估计在MATLAB中实现如下: Y = x; Y(1:n) = []; m = N-n; X = [];% 构造系数矩阵 for i = 1:m     for j = 1:n         X(i,j) = xt(n i-j);     end end beta = inv(X'*X)*X'*Y'; 复制代码 beta即为用最小二乘法估计出的模型参数。 此外,还有估计AR模型参数的Yule-Walker方程法、基于线性预测理论的Burg算法和修正的协方差算法等[26]。相应的参数估计方法在MATLAB中都有现成的函数,比如aryule、arburg以及arcov等。 4.3.3 AR模型阶次的选择及实验设计 文献[26]中介绍了五种不同的AR模型定阶准则,分别为矩阵奇异值分解(Singular Value Decomposition, SVD)定阶法、最小预测定误差阶准则(Final Prediction Error Criterion, FPE)、AIC定阶准则(Akaika’s Information theoretic Criterion, AIC)、MDL定阶准则以及CAT定阶准则。文献[28]中还介绍了一种BIC定阶准则。SVD方法是对Yule-Walker方程中的自相关矩阵进行SVD分解来实现的,在MATLAB工具箱中arorder函数就是使用的该算法。其他五种算法的基本思想都是建立目标函数,阶次估计的标准是使目标函数最小化。 以上定阶准则在MATLAB中也可以方便的实现,下面是本文实现FPE、AIC、MDL、CAT定阶准则的程序(部分): for m = 1:N-1    ……       % 判断是否达到所选定阶准则的要求    if strcmp(criterion,'FPE')        objectfun(m 1) = (N (m 1))/(N-(m 1))*E(m 1);    elseif strcmp(criterion,'AIC')        objectfun(m 1) = N*log(E(m 1)) 2*(m 1);    elseif strcmp(criterion,'MDL')        objectfun(m 1) = N*log(E(m 1)) (m 1)*log(N);    elseif strcmp(criterion,'CAT')        for index = 1:m 1            temp = temp (N-index)/(N*E(index));        end        objectfun(m 1) = 1/N*temp-(N-(m 1))/(N*E(m 1));    end        if objectfun(m 1) >= objectfun(m)        orderpredict = m;        break;    end end 复制代码 orderpredict变量即为使用相应准则预测的AR模型阶次。 (注:以上代码为结合MATLAB工具箱函数pburg,arburg两个功率谱估计函数增加而得,修改后的pburg等函数会在附件中示意,名为pburgwithcriterion) 登录/注册后可看大图 程序1.JPG (35.14 KB, 下载次数: 20352) 下载附件  保存到相册 2009-8-28 20:54 上传 登录/注册后可看大图 程序2.JPG (51.78 KB, 下载次数: 15377) 下载附件  保存到相册 2009-8-28 20:54 上传
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不负韶华ღ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值