基于移动边缘计算的超密集网络中面向移动性的用户中心化AP聚类
摘要
超密集网络(UDN)被视为一种有前景的技术,可在高密度城市区域提供高质量的无线连接,其中接入点(AP)的密度增加到与活跃移动用户密度相当甚至超过的程度。为了减轻接入点间干扰并提高频谱效率,UDN中的接入点通常被聚类为多个组,分别服务不同的移动用户。然而,随着接入点数量的增加,接入点组内的计算能力已成为AP聚类的瓶颈。本文中,我们首先提出一种基于移动边缘计算(MEC)的新型UDN架构,其中每个移动边缘计算服务器与一个用户中心化AP簇相关联,并充当移动代理。此外,在基于MEC的UDN背景下,我们利用移动性预测技术实现一种动态AP聚类方案,该方案中的簇结构能够自动适应特定区域内用户流量的动态分布。仿真结果表明,与采用最大SINR用户关联和等带宽分配的基线算法相比,所提出的方案可显著提高平均用户吞吐量,同时保证低传输延迟。
关键词 : 接入点聚类、动态用户流量、移动边缘计算、面向移动性、超密集网络
1. 引言
新一代移动系统——第五代(5G)预计将能够应对密集城市和热点区域的极端流量负载[1]。大量移动设备将连接到5G,导致流量需求急剧增长[2, 3]。为解决移动用户日益增长的流量需求与有限无线资源之间的矛盾,超密集网络(UDNs)最近被提出作为一种有前景的技术,通过对接入点(APs)进行极度密集部署来提升系统容量[4, 5]。与传统蜂窝网络相比,UDN的接入点(APs)密度极高,可达到甚至超过活跃移动用户的密度。
∗王天宇(电子邮箱:tianyu.alex.wang@nju.edu.cn)。
1何树新(电子邮箱:mg1723062@smail.nju.edu.cn)。
2王绍伟(电子邮箱:wangsw@nju.edu.cn)。
从网络中心视角来看,最近的研究表明,超密集网络在频谱效率、能量效率、系统容量和干扰抑制方面可以显著提升系统性能。在[6]中,提出了一种多小区场景下的联合发射功率控制和用户调度方案,以优化超密集网络的能量效率,为此在小小区基站之间构建了动态随机博弈,并在Lyapunov优化框架中采用了漂移加惩罚方法。在[7]中,研究了超密集网络中能量高效的上下文感知资源分配问题,该问题被解耦并重新表述为基于双边偏好的一对一匹配问题。在[8]中,提出了一种平衡用户移动性和网络密集化的超密集网络最优设计,其中海量用户根据其移动速度被划分为不同的组,并由不同的子网提供服务。结果表明,该方法能够以高频谱效率满足流量需求。在[9]中,提出了一种基于图的多小区调度框架以减轻下行链路小区间干扰,其中提出了一种基于信道感知的资源分配动态聚类方法,以提供可调节的服务质量。
尽管网络中心式方法已得到充分研究,但小区边缘用户性能始终是一个具有挑战性的问题。由于超密集网络中的移动用户相比传统蜂窝网络更靠近接入点,小区边缘用户的数量显著增加。因此,与传统的网络中心式方法相比,用户中心的网络管理在超密集网络文献中获得了更多关注。在[10]中,提出了一种联合接入点聚类和资源分配问题,并开发了一种基于分布式流量感知和用户中心、具有重叠聚类的聚类方案,以最大化频谱效率。在[11]中,通过引入若干预定义的虚拟小区来联合优化超密集网络用户的传输,其中每个用户专用的虚拟小区的发射功率受到限制。所提出的虚拟小区方案通过避免接入点间干扰获得了较高的协作增益。在[12]中,提出一种基于本地测量的用户中心自适应聚类方法,利用协同多点传输来最大化超密集网络用户的有效吞吐量。
然而,超密集网络的动态流量分布会显著增加网络中心和用户中心型超密集网络的计算负担。此外,诸如超高清视频、可穿戴辅助和增强现实等新型服务不仅要求网络运营商提供巨大的流量支持,还要求保证严格的传输延迟[13, 14]。因此,移动边缘计算(MEC)被视为一种有前景的技术,可在超密集网络中充当强大的移动代理,提供高计算能力、大存储和在线数据分析。移动边缘计算服务器可部署在网络边缘靠近终端用户的位置,以卸载计算任务并减少传输延迟[15, 16, 17]。
此外,当前的研究主要集中在基于局部无线环境测量的静态接入点聚类方法上,未考虑用户移动性和流量分布的实时变化。由于超密集网络中不规则的覆盖范围和多样的接入点关系,这些静态方法正面临挑战[18]。本文将移动边缘计算(MEC)层集成到超密集网络中,其中移动边缘计算服务器连接邻近接入点,为特定超密集网络用户提供集成的通信与计算服务。在基于移动边缘计算的超密集网络场景下,移动边缘计算服务器可提供额外的计算能力,以应对网络中的实时用户移动性。因此,我们提出一种由移动性驱动的动态以用户为中心的接入点聚类方案,通过用户移动性预测和动态调整簇结构,优化基于移动边缘计算的超密集网络中的平均用户吞吐量。
用户流量的动态分布。主要贡献总结如下:
• 我们提出了一种基于多接入边缘计算的超密集网络架构,以从核心网络卸载计算任务。
• 我们构建了一个M/M/1/L队列来建模每个接入点服务的移动用户的流量。并且我们进一步构建了一个组合优化问题,以最大化平均用户吞吐量。
• 该组合优化问题通过使用动态以用户为中心的接入点聚类方案来解决。首先,设计了一种基于用户移动性实时预测的以用户为中心的接入点聚类算法。然后,引入了一种资源分配算法,其中限制了每个用户的平均分组传输时延。
• 我们所提出的动态以用户为中心的聚类方案的性能得到了分析,仿真结果表明,与采用最大信干噪比用户关联和等带宽分配的基线算法相比,该方案提供了更优的聚类性能。
本文其余部分组织如下。在第二节中,我们介绍了系统模型,并构建了一个以最大化平均用户吞吐量为目标的优化问题。在第三节中,我们提出了一种动态以用户为中心的接入点聚类方案。仿真结果在第四节中进行了分析,结论在第五节中给出。
2. 系统模型
我们考虑一个由基于多接入边缘计算的超密集网络(MEC‐based UDN)服务的区域,如图1所示,其中N个接入点(其集合表示为 N = {1, 2, …, N})和K个用户(其集合表示为 K = {1, 2, …, K})在系统中均匀分布。需要注意的是,我们关注的是活跃的移动用户,并假设N ≥ K。每个接入点具有恒定功率和带宽预算,分别用 P 和 W 表示。
我们引入关联指示符 li,j,以表示用户 j 是否由接入点 i 服务。
$$
l_{i,j} =
\begin{cases}
1 & \text{user } j \text{ is associated with AP } i, \
0 & \text{otherwise}.
\end{cases}
\quad (1)
$$
与接入点 i 关联的用户集合由以下给出,
$$
K_i = {j \mid l_{i,j} = 1, j \in K}, \forall i \in N. \quad (2)
$$
与接入点 i 关联的用户数量由 $ K_i = |K_i| $ 给出。对于任意用户 j ∈ K,我们假设它可以由一组 M 个接入点提供服务,其中 M 是一个预定义常数。服务用户 j 的接入点组由以下给出,
$$
M_j = {i \mid l_{i,j} = 1, i \in N}, \forall j \in K. \quad (3)
$$
我们假设每个接入点对每个用户使用恒定功率 P₀,且接入点 i 分配给用户 j 的带宽表示为 wi,j。则接入点 i 的功率预算约束由下式给出,
$$
P_0 K_i \leq P, \forall i \in N. \quad (4)
$$
且接入点 i 的带宽预算是由以下给出,
$$
\sum_{j \in K_i} w_{i,j} \leq W, \forall i \in N. \quad (5)
$$
用户 j 与接入点 i 之间的下行链路传输速率由此给出,
$$
r_{i,j} = w_{i,j} \log\left[1 + \frac{P_0(d_0/d_{i,j})^\alpha}{N_0 w_{i,j}}\right], \quad (6)
$$
其中,d₀是参考距离,di,j是用户 j 与接入点 i 之间的距离,α是路径损耗指数,N₀是噪声功率谱密度。此处,我们考虑无接入点间干扰的下行链路传输。
我们假设任意用户 j 的数据分组到达是一个到达率为 λj 的泊松过程,且接入点以有限缓冲区大小 L 为每个用户提供服务。用户 j 的分组大小,记为 ej,服从均值为 E 的负指数分布。如果用户 j 与接入点 i 相关联,即 li,j = 1,则服务率 μi,j 由下式给出,
$$
\mu_{i,j} = \frac{r_{i,j}}{e_j} = \frac{w_{i,j}}{e_j} \log\left[1 + \frac{P_0(d_0/d_{i,j})^\alpha}{N_0 w_{i,j}}\right], \quad (7)
$$
基于上述假设,我们可以将接入点对用户的服务过程建模为一个M/M/1/L排队过程[19],其中第一个M表示用户流量的到达服从参数为 λj 的泊松过程,第二个M表示服务时间服从参数为 μi,j 的负指数分布,L是接入点为关联用户设置的有限缓冲区。
当用户 j 的分组到达接入点 i 时,缓冲区中有 n 个分组等待的概率由下式给出,
$$
\pi_{i,j}(n) = \frac{\rho_{i,j}^n (1 - \rho_{i,j})}{1 - \rho_{i,j}^{L+1}}, \quad (8)
$$
其中
$$
\rho_{i,j} = \frac{\lambda_j}{\mu_{i,j}} = \frac{\lambda_j e_j}{w_{i,j} \log\left[1 + \frac{P_0(d_0/d_{i,j})^\alpha}{N_0 w_{i,j}}\right]}, \quad (9)
$$
注意 $\rho_{i,j} < 1$ 必须始终满足。
当用户 j 的新分组到达时,如果队列中有 n 个分组等待且 n < L,则这 n+1 个分组的总服务时间为 $(n + 1)/\mu_{i,j}$。平均分组时延等于队列中 n+1 个分组的平均服务时间,其表达式为,
$$
\tau_{i,j} = \sum_{n=0}^{L-1} \pi_{i,j}(n) \frac{n+1}{\mu_{i,j}} = \frac{(1 - \rho_{i,j})}{(1 - \rho_{i,j}^{L+1})\mu_{i,j}} \sum_{n=0}^{L-1} (n+1)\rho_{i,j}^n = \frac{1}{(1 - \rho_{i,j}^{L+1})\mu_{i,j}} \left[ \frac{1 - \rho_{i,j}^L}{1 - \rho_{i,j}} - L\rho_{i,j}^L \right]. \quad (10)
$$
我们从(9)和(10)可以看出,接入点 i 对其关联用户的带宽分配决定了平均分组时延。然后,用户 j 的分组时延约束由下式给出,
$$
\tau_{i,j} \leq D. \quad (11)
$$
当用户 j 的新分组到达时,如果缓冲区已满,即队列中已有 L 个分组,则用户 j 的分组将被丢弃。因此,接入点 i 对于用户 j 的阻塞概率,记为 Bi,j,由下式给出,
$$
B_{i,j} = \pi_{i,j}(L) = \frac{\rho_{i,j}^L (1 - \rho_{i,j})}{1 - \rho_{i,j}^{L+1}}. \quad (12)
$$
当用户 j 由接入点组 Mj 服务时,用户 j 的数据包将进入该组中每个接入点的缓冲区。因此,仅当该组中所有缓冲区均满时,到达的数据包才会被阻塞。于是,由接入点组 Mj 服务的用户 j 的阻塞概率,记为 BMj,其表达式如下:
$$
B_{M_j} = \prod_{i \in M_j} B_{i,j}. \quad (13)
$$
然后用户j的吞吐量由以下公式给出,
$$
C_j = \lambda_j (1 - B_{M_j}). \quad (14)
$$
系统的平均用户吞吐量,记为C,由以下给出,
$$
C = \frac{1}{K} \sum_{j \in K} C_j. \quad (15)
$$
我们的目标是优化每个用户的接入点组,以最大化系统中的平均用户吞吐量。因此,该优化问题表述如下:
$$
\max_{{l_{i,j}}, {w_{i,j}}} C \quad (16a)
$$
s.t.
$$
P_0 K_i \leq P, \forall i \in N, \quad (16b)
$$
$$
\sum_{j \in K_i} w_{i,j} \leq W, \forall i \in N, \quad (16c)
$$
$$
l_{i,j} \in {0, 1}, \forall i \in N, j \in K, \quad (16d)
$$
$$
\sum_{i \in N} l_{i,j} = M, \forall j \in K, \quad (16e)
$$
$$
\tau_{i,j} \leq D, \forall i \in N, j \in K, \quad (16f)
$$
$$
\rho_{i,j} < 1, \forall i \in N, j \in K. \quad (16g)
$$
(16b) 是接入点总功率的约束,(16c) 是接入点总带宽的约束。(16d) 表示用户 j 与接入点 i 之间用户关联的两种状态,(16e) 表示每个用户由 M 个接入点服务。(16f) 是分组时延约束,其中 D 是一个预定义常数。(16g) 是排队系统的约束。我们在表1中总结了符号说明。
3. 动态以用户为中心的接入点聚类方案
问题(16)是一个组合整数优化问题,通常是NP难的。本文提出了一种启发式算法,该算法包含基于移动性预测的用户为中心的接入点聚类以及满足分组时延约束的贪心资源分配。
3.1. 基于移动性预测的接入点聚类
由(9)和(12)可知,由于阻塞概率Bi,j关于距离di,j的导数始终大于零,因此接入点i与用户j之间的距离越大,平均阻塞概率Bi,j越高。因此,我们算法的思想是将靠近用户j的接入点聚类为一组,以降低业务分组的平均阻塞概率。
如图2所示,我们首先根据[20, 21]中所示的用户移动模型,将用户 j 的移动轨迹生成为多项式函数 y = fj(x),其中用户 j 的位置表示为 (xj, yj)。我们将用户 j 在时间t的位置坐标记为 (xj(t), yj(t))。用户 j 的初始位置记为 (xj(0), yj(0)),服务于用户 j 的初始接入点组记为 Mj(0)。
我们将 ∆t 表示为预测时长,并对用户 j 的移动进行追踪,追踪间隔为 ∆t。我们假设用户以恒定速度v移动,则预测距离∆s由下式给出,
$$
\Delta s = v \Delta t. \quad (17)
$$
我们进一步假设移动方向与移动轨迹 y = fj(x) 相切,且在时间t的移动方向角度由下式给出,
$$
\theta(t) = \arctan \left. \frac{df_j(x)}{dx} \right|_{x = x_j(t)}. \quad (18)
$$
然后,用户 j 在时间 t + ∆t 的位置,记为 (ˆxj(t + ∆t),ˆyj(t + ∆t)),可通过以下方式预测:
$$
\hat{x}_j(t+\Delta t) = x_j(t) + \Delta s \cos\theta(t);
$$
$$
\hat{y}_j(t+\Delta t) = y_j(t) + \Delta s \sin \theta(t). \quad (19)
$$
对于任意时刻 t,我们用 dj,i(t) 表示接入点 i 与用户 j 之间的预测距离。对于任意用户 j,我们将用户 j 与各接入点之间的距离按升序排列,即
$$
d_{j,i_1}(t) < d_{j,i_2}(t) < \cdots < d_{j,i_N}(t). \quad (20)
$$
我们选择第一个 M 个接入点作为服务用户 j 的组,该组的集合由以下给出
$$
M_j(t) = {i_1, i_2, …, i_M}. \quad (21)
$$
接入点组 Mj(t) 在时间 t 到 t + ∆t 期间为用户 j 提供服务。对于任何用户 j,一个移动边缘计算服务器连接到组 Mj(t) 中的所有接入点,以卸载由用户 j 产生的计算任务。
当用户 j 的数据包以速率 λj(t) 到达时,这些数据包将进入组 Mj 的缓冲区进行服务。当该组中所有接入点的缓冲区都满时,数据包将被阻塞。
此外,移动轨迹 fj(x) 上的实际位置 (xj(t + ∆t), yj(t + ∆t)) 可以通过计算得到
$$
\int_{x_j(t)}^{x_j(t+\Delta t)} \sqrt{1 + \left( \frac{df_j(x)}{dx} \right)^2} dx = \Delta s. \quad (22)
$$
为用户 j 服务的接入点组成员在每次进行移动性预测的位置点处动态更新。具体而言,在每个预测点,用户更新其位置,并将位置信息发送至与其服务接入点组相连的移动边缘计算服务器。然后,移动边缘计算服务器对用户位置进行预测,并通知用户在下一个预测间隔内为其提供服务的重新分组的接入点。最后,更新为用户服务的接入点组。在实际的移动通信系统中,组内的接入点可以通过设计的X2接口[22]相互交换信息。所提出的接入点聚类算法如表 2 所示。
3.2. 带有时延约束的资源分配
对于任意接入点 i 和用户 j ∈ Ki,我们用 w_min_i,j 表示满足延迟约束 (16f) 所需的最小带宽,其表达式为,
$$
w^{\text{min}}
{i,j} = \min { w
{i,j} \mid \tau_{i,j}(w_{i,j}) \leq D }. \quad (23)
$$
接入点 i 的剩余带宽,记为 Wri,由以下给出,
$$
W^r_i = W - \sum_{j \in K_i} w^{\text{min}}_{i,j}, \forall i \in N. \quad (24)
$$
4. 仿真结果
我们考虑一个边长为2公里的正方形区域,其中接入点和用户在该区域内均匀分布。在传统蜂窝网络中,由于接入点密度的限制,用户通常仅与提供最大信干噪比的单个基站关联。因此,为了进行比较,在移动轨迹的实际位置上,基线算法采用最大SINR用户关联,且不进行聚类和等带宽分配。在基线算法中,每1秒执行一次用户重关联。
我们假设一个接入点以4瓦的总功率和1兆赫的总带宽向其关联用户传输。每个接入点以0.4瓦的恒定功率向一个用户传输。分组时延受限于20毫秒的阈值。分组到达率 λj 服从均值为 λ = 100、方差为 δ² = 10的高斯分布。我们假设接入点对每个用户的缓冲区大小相等,用户速度为2米/秒,然后展示所提出算法与基线算法的性能对比。我们在表4中总结了仿真参数。
在图3中,我们展示了平均阻塞概率随用户数量的变化情况,其中用户数量 K 从20变化到70,接入点数量 N = 100、预测时长 ∆t = 1 秒以及接入点缓冲区大小 L = 20。如图所示,对于簇大小 M = 2 和 M = 3,所提算法相较于基线算法使阻塞概率分别降低了20%和50%。当用户数量超过30时,在所提算法中可以看到阻塞概率先略微下降随后上升。随着用户数量的增加,一方面,用户与其服务接入点之间的距离减小,聚类后的接入点组能够提供更好的服务,从而降低阻塞概率;另一方面,数据包在队列中的平均等待时间增加,导致阻塞概率上升。当用户数量在30到50之间时,用户与其服务接入点之间距离的减小占主导作用,因此阻塞概率先略有下降;当用户数量超过50时,队列中等待时间的增加占主导作用,平均阻塞概率随之上升。
在图4中,我们进一步展示了系统吞吐量随用户数量的变化情况,其中接入点数量 N = 100,预测时长 ∆t = 1 s,接入点缓冲区大小 L = 20。如图所示,随着用户数量的增加,两种算法的系统吞吐量均迅速上升。然而,当簇大小 M = 2 和 M = 3 时,所提算法相比基线算法分别将总吞吐量提高了20%和30%。如图3所示,当用户数量增加时,所提算法相比基线算法表现出更低的阻塞概率。因此,所提算法相较于基线算法提供了更高的吞吐量增益。
在图5中,我们展示了平均分组时延随用户数量变化的情况,其中接入点数量 N = 100,预测间隔 ∆t = 1 s,缓冲区大小 L = 20。如图所示,随着用户数量的增加,用户的平均分组时延也随之增加。所提算法在簇大小为 M = 2 和 M = 3 时,相较于等带宽分配算法,平均分组时延分别降低了60%和70%。此外,随着用户数量的增加,所提算法能够保证用户的平均分组时延低于特定阈值20毫秒,而基线算法的分组时延则持续增加。
在图6中,我们展示了用户数据包的平均阻塞概率随接入点数量的变化情况,其中用户数 K = 20,预测间隔 ∆t = 1 s,缓冲区大小 L = 20。可以看出,随着接入点数量的增加,平均阻塞概率降低,因为更多的接入点使得更多用户能够接入网络,并且用户与其服务AP之间的距离减小。此外,所提算法相较于基线算法,在簇大小 M = 2和 M = 3时,分别实现了阻塞概率降低20%和50%。这表明所提算法在网络密集化过程中的数据传输方面将优于基线算法,这对于未来移动网络的部署具有重要意义。
在图7中,我们展示了平均用户吞吐量随缓冲区大小的变化情况,其中接入点数量 N = 100,用户数 K = 20,预测间隔 ∆t = 1 s。可以看出,随着缓冲区大小的增加,平均用户吞吐量也随之增加,因为更大的缓冲区大小意味着接入点可以服务更多的数据包。然而,当缓冲区大小超过40时,平均用户吞吐量的提升变得有限。我们可以看到 L = 40 是我们建立队列模型的最优位置,因为在该点之后,需要大幅增加缓冲区大小才能获得微小的性能增益。此外,与基线算法相比,所提出的算法在簇大小 M = 2 和 M = 3 下分别将平均用户吞吐量提高了20%和25%。
在图8中,我们展示了平均用户吞吐量作为预测间隔的函数,其中接入点数量 N = 100,用户数 K = 20,以及缓冲区大小 L = 20。如图所示,使用所提算法时,随着预测间隔的增加,平均用户吞吐量迅速下降。此外,当预测间隔小于1秒时,与聚类大小为 M = 2 和 M = 3 的基线算法相比,所提算法分别将用户吞吐量提高了20%和30%。然而,当预测间隔大于1 s时,可以观察到所提算法的性能劣于基线算法,因为较大的预测距离会导致用户移动性预测不准确。相反,如果预测间隔小于1秒,聚类的接入点组将频繁更新,这会增加核心网络的信令开销。因此,最优预测间隔为 ∆t = 1s。
5. 结论
本文研究了基于MEC的超密集网络中以用户为中心的接入点聚类问题。我们提出了一个吞吐量最大化问题,其中将接入点为用户提供的服务建模为M/M/1/L排队过程。该问题随后通过用户中心化AP簇算法和贪婪带宽分配算法得以解决。仿真结果表明,与采用最大SINR用户关联和等带宽分配的基线算法相比,所提出的方案不仅提高了平均用户吞吐量,而且保证了较低的分组传输延迟。我们发现,接入点密度、预测时长和簇大小对AP聚类性能有显著影响,在实际超密集网络部署中需要仔细设计。
904

被折叠的 条评论
为什么被折叠?



