一种考虑云边计算环境中隐私保护的大规模健康物联网设备计算资源分配优化策略
摘要
随着5G的发展和大规模物联网健康技术设备的爆炸式增长,现有的计算资源分配策略存在延迟长、安全性能差等诸多问题。因此,本文提出了一种在云边计算环境中考虑隐私保护的大规模IoHT设备计算资源分配优化策略。首先,构建了一个5G异构云边计算网络。此外,根据网络状态,将设备的计算需求分配至本地执行或边缘计算,并相应地对计算延迟、通信以及边缘服务器的计算资源分配进行建模。然后,以网络计算资源分配的延迟和能耗为优化目标,对子任务优先级进行排序,实现计算资源的最优分配。最后,考虑到IoHT中大规模隐私数据泄露的风险,设计了一种即时通讯隐私数据保护模型。同一局域网下的终端设备通过套接字直接连接到边缘服务器,无需云服务器转发,从而提升了隐私数据的安全性能。实验在MATLAB上进行,验证了所提出的策略的性能。仿真平台。结果表明,边缘计算服务器的增加会影响中央处理器的比例。此外,与其他策略相比,用户数量、边缘计算服务器数量、设备计算能力和任务到达率对提出策略的平均延迟影响最小,从而有效提升了分配策略的性能。
关键词 云边计算 · 隐私保护 · 健康物联网 · 计算资源分配 · 优先级 · 轻量级安全
1 引言
近年来,随着软件和5G通信技术的成熟,智能手机等移动设备逐渐普及,物联网(IoT)技术也随之发展。从楼宇和家居自动化到可穿戴设备,物联网触及我们生活的方方面面。许多企业正在大力投资将物联网作为医疗领域的解决方案。物联网健康技术(IoHT)正变得越来越重要。借助智能系统,可以获取患者的生命关键数据,并通过适当利用这些数据提高医疗行业的效率。从患者收集的数据极为敏感,因此在革新患者护理的同时,必须采取适当的安全措施来保护物联网健康技术中的联网设备和网络[1]。
这些移动应用通常具有密集计算的典型特征。智能终端受限于计算和存储资源,难以执行密集计算操作。同时,这类应用对低延迟要求极高且能耗高。由于通信技术和智能终端尺寸的限制,移动设备的计算资源和电池寿命有限[2, 3]。高质量通信、计算能力和电源资源的稀缺,对未来智能移动平台中资源受限的移动设备的发展构成了重大挑战[4, 5]。
尽管传统云计算技术可以为设备提供极高的计算能力,但云服务器部署在骨干网络中,无法保证与移动设备之间的低通信延迟[6]。这种矛盾现状显然无法满足上述新兴应用的需求。因此,提出了移动边缘计算(MEC)的概念,该概念利用边缘网络设施潜在的计算和通信能力。服务器被部署在互联网边缘,移动设备将计算任务卸载到边缘服务器进行执行。在实现高性能的同时,仅引入单跳无线通信延迟,为解决上述矛盾提供了丰富的可能性[7]。此外,边缘计算更有利于隐私保护和安全防护。与传统云计算技术不同,边缘计算无需将用户数据上传至公共网络的云数据中心进行处理,从而降低了用户私有数据暴露于漏洞攻击的风险[8]。在边缘计算场景下,边缘服务器的分布式部署能够最大化分散用户数据。同时,由于靠近终端设备的特性,边缘云可构建为私有云,缓解了隐私泄露问题。此外,得益于边缘服务器靠近终端设备的特点,边缘计算还能提供高度定制化和内容感知服务,非常适用于未来以内容为中心的网络(CCN)[9]。
然而,若缺乏合理的卸载策略,边缘计算的潜力将无法被充分挖掘。同时,无线通信也容易受到外部环境的干扰,且在同一信道上还会出现通信冲突相邻设备之间的信道。如果不采取适当的协调措施来消除干扰并减少冲突,则很难保证无线通信的传输延迟[10]。因此,在考虑海量IoHT设备数据隐私保护的前提下,如何实现高效可靠的计算资源分配优化,是边缘云计算面临的主要挑战[11]。
基于上述分析,为了解决大规模IoHT设备在计算资源分配中延迟大、安全性能差的问题,本文提出了一种在云边计算环境中考虑隐私保护的大规模IoHT设备计算资源分配优化策略。本文的创新点在于:
1) 现有IoHT设备的大部分计算需求在云服务器中集中处理,存在高延迟问题。提出的策略构建了5G异构云边计算网络,根据网络状态将设备的计算需求分配至本地执行或边缘计算,提高了计算资源分配的效率。
2) 为了实现设备计算资源的最优分配,对子任务优先级进行排序,并以延迟和能耗为优化目标设置卸载决策。在确保子任务间固有依赖关系的同时,还能有效优化任务总延迟和边缘计算设备的能耗。
3) 鉴于IoHT存在大规模隐私数据泄露的风险,提出了一种即时通讯隐私数据保护模型。同一局域网下的终端设备通过套接字与边缘服务器连接,无需云服务器转发。这不仅减轻了云服务器的通信压力,还提升了私有数据的安全性能。
2 相关研究
作为下一代网络架构的基础技术,移动边缘计算已受到学术界和工业界的广泛关注。针对计算卸载问题,当前的研究侧重于卸载决策和资源分配优化。已提出多种卸载策略[12]。
边缘计算环境中的计算任务卸载场景通常包括三种类型:单设备单边缘服务器、多设备单边缘服务器和多设备多边缘服务器[13]。单设备单边缘服务器场景最为简单,无需考虑用户之间的计算与通信资源竞争,因此已难以适应网络与通信技术的发展趋势。大多数多设备单边缘服务器场景考虑蜂窝网络模型,即空中一个无线接入点(WAP)覆盖范围内存在多个设备,边缘服务器部署在无线接入点上,多个设备向同一个无线接入点进行边缘卸载。在多设备多服务器的卸载场景中,不仅存在设备间对计算与通信资源的竞争,还涉及卸载服务器选择、服务器间负载均衡、资源调度与分配等问题,比前两种场景更为复杂,目前相关研究较少。文献[14]提出了一种名为联合部分卸载与资源分配(JPORA)的新方案。通过综合考虑所需能耗、部分卸载及资源分配约束,将总等待时间最小化,并建模为一个混合整数非线性规划(MINLP)问题。实验结果表明,该方法不仅实现了低延迟,还降低了能耗。然而整体应用较为复杂,实际推广和应用仍需进一步探索。
文献[15]提出了负载均衡与卸载的联合优化方法,研究了多用户多服务器车联网边缘计算(VEC)的资源分配方案。该联合负载均衡与卸载问题被表述为一个混合整数非线性规划问题,以最大化系统效用并优化卸载率和计算资源。实验结果表明,所提算法具有快速收敛特性。然而,目前仅在车联网的部分应用中取得了实际应用效果,其扩展到其他设备和网络的可靠性和可行性仍有待验证。
根据不同的卸载任务,卸载策略可分为整体卸载和部分卸载[16]。整体卸载的主要目标是在满足特定延迟约束的同时最小化应用延迟和用户设备能耗,或在能耗与执行延迟之间进行权衡。文献[17]提出了一种新型的软件定义工业网络(SDIN)架构,以解决现有工业物联网(IIoT)在资源利用率、数据处理与存储以及系统兼容性方面的缺陷。该研究基于SDIN架构考虑了不同的解决方案和服务需求,并提出了面向工业应用的两种边缘计算策略。仿真结果验证了SDIN架构在边缘计算卸载中的可行性与有效性。部分卸载的研究重点主要集中在满足特定延迟约束的同时最小化用户设备能耗,或对能耗与延迟进行联合优化并相应地进行平衡。文献[18]提出了一种新型的动态感知移动性部分卸载(DMPO)算法,用于动态计算需要卸载的数据量并确定毫米波(MM)中的通信路径。该算法在最小化能耗和满足延迟约束方面满足了相关要求。仿真结果表明,在相同延迟约束下,所提算法相比传统算法能耗降低了约70%。然而,上述方法均未涉及用户数据隐私保护,在卸载效率与可靠性方面仍有改进空间。
根据卸载决策方式的不同,现有工作的卸载策略可分为两类:集中式卸载策略和分布式卸载策略[19]。集中式卸载策略通过统一的中央MEC控制器收集全局信息,例如信道质量、任务细节等,然后基于所收集的信息做出统一决策,并发送至边缘设备执行。文献[20]采用深度强化学习算法来解决移动边缘计算环境下无线蜂窝网络中移动用户的计算卸载问题。该算法结合强化学习算法与深度神经网络(DNN),以优化计算卸载决策策略。仿真结果表明,与传统方法相比,所提出的方法在所有移动用户的总能量成本方面具有更大优势。但未提及用户隐私保护和数据安全。集中式决策的优势在于信息全面详细,有机会做出更准确高效的决策。然而,收集全局信息需要一定时间,不可避免地存在信息过时的问题。中央控制器节点需要承受巨大的计算和流量压力,容易成为整个系统的瓶颈。一旦中央节点发生故障,整个系统将崩溃[21]。分布式卸载策略依赖博弈论等数学工具,使边缘设备自组织达到均衡状态,并推导出各方都满意的卸载策略[22]。参考文献[23]研究了基于正交频分多址的小小区网络(SCNs)中多设备多服务器系统的分布式计算卸载策略。通过构建一个分布式开销最小化问题,优化了每个移动终端的能耗和等待时间。同时,提出了一种基于潜在博弈论的卸载算法,以实现纳什均衡。仿真结果证实,与其他现有算法相比,该算法能有效最小化每个移动终端的开销。与集中式卸载策略相比,分布式策略更加轻量。但决策只能依赖部分不完整信息,因此最终的卸载效益可能不如集中式卸载策略。
3 场景分析与模型构建
3.1 场景分析
为了实现大规模IoHT设备的计算资源最优分配,构建了一个由宏基站和N个基站(BS)组成的5G异构云边计算网络。系统模型如图1所示。在网络边缘部署了移动边缘云计算服务器,该服务器具有一定的计算能力,可同时执行多个计算密集型服务[24]。为了复用频谱,我们考虑该异构网络中的基站均使用相同的频段,并通过有线方式连接到宏基站。每个基站的频段被划分为K个正交子信道,k = {1, 2, ⋯, K} 表示所有子信道的集合。同一小区内的用户使用正交子信道,不同小区的用户可以复用相同的子信道。
为了简化分析和表述,假设该网络中每个BS仅有一个用户,且i = {1, 2, ⋯, I}表示网络中所有用户的集合。同时,考虑每个用户i都有一个需要完成的计算任务。用户可根据当前网络状态和自身需求选择本地执行或卸载到边缘计算。定义 di ∈{0, 1}为用户的卸载决策,0表示本地执行,1表示卸载到边缘计算。因此,D={d1, d2, ⋯, dI}被定义为所有用户的卸载决策。
3.2 模型构建
3.2.1 计算延迟模型
通常情况下,计算资源分配任务的总计算延迟是出口子任务的延迟。因此,通过对每个子任务的计算延迟进行分析和建模,得到整个任务的总计算延迟[25]。
对于设备i上的子任务 φ,其分配过程如下:φ的所有前驱任务均已执行并生成相应数据。所有前驱任务通过无线网络将数据传输至执行 φ的边缘服务器,然后服务器调度 φ在合适的时间执行。根据上述分配过程,子任务φ的实际最早结束时间TED(i, φ)为:
$$
TED(i, \varphi) = \min_{s \in S \cup {-i}} \left{ TBD(i, \varphi, s) + T_s(i,\varphi) \right} \quad (1)
$$
在公式中,TBD(i, φ,s) 是子任务 φ 在边缘服务器 s(或本地设备)上相对于设备 i 的实际最早开始时间。Ts(i;φ) 是 φ 在 s 上的执行时间。上述公式表示轮询所有边缘服务器(包括本地设备),以找到子任务φ的最早完成时间。显然,由于依赖关系的限制,子任务 φ 必须在所有前驱任务执行完毕后才能开始。
因此,采用非抢占式任务调度策略。只有当服务器空闲时,等待调度的任务才能开始执行。
根据上述分析,可以得出子任务 φ在服务器(或本地边缘设备)s上的实际最早开始时间为:
$$
TBA(i, \varphi, s) = \max \left{ t(i, \varphi, s), TT(i, \varphi, s) \right} \quad (2)
$$
其中,t(i, φ, s) 是服务器 s 准备好调度 φ 以执行的最早时间。换句话说,服务器 s 处于空闲状态,且空闲时间段足以插入子任务 φ 执行的最早时间点。TT(i, φ, s) 是 φ 在服务器 s 上的理论最早开始时间,即在服务器 s 上执行 φ 所需的所有数据准备就绪的时间。需要注意的是,t(i, φ, s) 永远不会早于 TT(i, φ, s),否则将违背子任务之间的固有依赖关系。
对子任务 φ的理论最早开始时间进行进一步分析。如果子任务 φ需要在服务器s上执行,则其所有前驱任务应首先被执行。其次,所有前驱任务的输出数据(即执行 φ所需的输入数据)需要全部传输到s。基于上述讨论,子任务 φ的理论最早开始时间可以表示为:
$$
TT(i, \varphi, s) = \min_{\varphi’ \in pred(\varphi)} \left{ \min_{s’ \in S \cup {-i}} TED(i, \varphi’, s’) + TC_{s’s}^{\varphi’\varphi} \right} \quad (3)
$$
其中,pred(φ) 表示子任务 φ 的所有前驱任务的集合。TCs’sφ’φ 表示 φ 与其前驱子任务φ′ 进行数据交换所需的时间,即φ′ 在 φ′ 上执行时将其输出数据传输给 s 供子任务 φ 使用的通信时间。
在给定数据交换量和网络带宽的情况下,TCs’sφ’φ 可表示为:
$$
TC_{s’s}^{\varphi’\varphi} =
\begin{cases}
\frac{Q_{\varphi’\varphi}}{BD_{s’s}}, & s’ \neq s \
0, & s’ = s
\end{cases} \quad (4)
$$
其中,Qφ’φ 是 φ’ 与 φ 之间的数据交换量,BDs’s 是实际网络通信服务器s’和s之间的带宽。如果s’ = s,即 φ’和φ在 同一位置执行,则数据交换的通信时间视为0。
同时,每个设备的入口子任务(编号固定为1)的理论最早开始时间为0,即:
$$
TT(i, 1, s) = 0, \forall i \in N; s \in S \cup {-i} \quad (5)
$$
总之,可以发现设备i的计算资源分配任务的最低总延迟为TED(i,|Vi|),即i的出口任务(编号为|Vi|)的实际最早完成时间。
3.2.2 通信模型
在移动边缘云计算的无线接入通信模型中,无线基站与移动设备相连,以管理移动设备的上传和下载。假设每个无线基站具有K个无线信道,无线信道组表示为:k = {1, 2, ⋯, K}。对于移动设备i的计算卸载决策,表示为:dn ∈{0} ∪m。具体而言,如果移动设备i选择通过无线信道将计算任务卸载到边缘服务器,则dn > 0;如果移动设备i决定执行本地计算任务,则dn = 0。通过所有移动设备 I的决策D = {d1,d2, ⋯, dI},可以计算当数据通过无线信道卸载到边缘服务器时的上传数据速率(即an > 0):
$$
vr_i(d) = w \log_2 \left( 1 + \frac{p_i g_{i,s}}{p_0 + \sum_{j \in I \setminus {i}: d_j = d_i} p_j g_{j,s}} \right) \quad (6)
$$
其中,w 是信道带宽,pi 是移动设备i的发射功率。gi,s 表示移动设备i与基站s之间的信道增益,p0 表示背景噪声功率。
从上传速率可以看出,当过多的移动设备选择相同的信道进行计算和卸载时,数据传输速率会大大降低。因为其他已选择此信道的移动设备的传输导致干扰增加[26]。这将对移动边缘云计算的性能产生负面影响,并影响边缘服务器为计算卸载服务提供的服务质量。
3.2.3 卸载到边缘计算服务器
对于向边缘计算服务器的卸载,移动设备用户i将其计算任务Ψi卸载到无线接入点,边缘服务器执行该计算任务。
对于计算卸载,移动设备用户i由于需要上传任务,将产生额外的时间和能耗开销。根据通信模型,可以计算移动设备i的传输时间和能耗。假设卸载的输入数据大小为bi,则传输时间为:
$$
tc_{i,off}(d) = \frac{b_i}{vr_i(d)} \quad (7)
$$
能耗是:
$$
ec_i(d) = p_i \frac{b_i}{vr_i(d)} + L_i \quad (8)
$$
其中Li是尾能量。由于移动设备在数据传输结束后仍会持续保持一段时间的信道连接,这种尾效应在3G/4G网络中十分常见。卸载后,边缘服务器将执行计算任务Ψi。定义fc_i为边缘服务器分配给用户i的计算能力(即每秒CPU周期)。边缘计算能力fci由移动用户i从电信运营商处订阅的边缘计算服务合同决定。由于许多电信运营商能够进行大规模的边缘计算基础设施投资,因此可以认为能够满足所有用户的边缘计算资源需求[27]。
移动设备用户i的任务Ψi的执行时间为:
$$
tc_{i,exe}(d) = \frac{C_i}{f_c^i} \quad (9)
$$
其中Ci表示完成计算任务Ψi所需的CPU周期总数。
结合处理时间和能耗,可通过卸载到边缘服务器获得以计算时间和能耗表示的总成本:
$$
\Phi_c^i(d) = \lambda_t^i (tc_{i,off}(d) + tc_{i,exe}) + \lambda_e^i ec_i(d) \quad (10)
$$
其中,λti和λei分别表示移动设备i决策的计算时间和能量权重参数。
与许多研究类似,忽略了边缘服务器将计算结果发送回移动设备用户的时间开销。因为对于许多应用而言,计算结果的大小通常远小于计算输入数据的大小,而计算输入数据包括移动系统设置、程序代码和输入参数。因此,主要考虑上传时间和执行时间[28]。
4 优化目标与卸载策略
4.1 优化目标与优化问题
在分配计算资源的过程中,用户设备首先评估设备本地计算的能耗。该结果随后上报给边缘计算节点,节点将评估用户设备卸载任务过程中的能耗[29]。然后,通过比较本地计算和卸载的能耗,做出相应的卸载决策。卸载决策表示为:
$$
d_i =
\begin{cases}
0, & E_l^i \leq E_c^i \
1, & E_l^i > E_c^i
\end{cases} \quad (11)
$$
其中El_i表示本地计算的能耗,Ec_i表示边缘计算的能耗。
考虑到用户的延迟要求和设备电池电量有限,通过优化卸载决策D、子信道分配K和功率分配P,最小化用户侧的总能量消耗。因此,待优化的目标函数为:
$$
\min Z(D,K,P) = \sum_{i=1}^{I} \left[ d_n E_c^i + (1-d_i) E_l^i \right] \quad (12)
$$
s.t.
$$
(1-d_i) TED(i, |V_i|) + d_i (tc_{i,off} + tc_{i,exe}) \leq T_{max}^i, \forall i \in I \quad (13)
$$
$$
\sum_{k \in K} c_{ki} p_{ki} \leq P_{max}, \forall i \in I
$$
$$
p_{ki} \geq 0, \forall i \in I
$$
$$
c_{ki} \in {0, 1}, \forall i \in I \quad (14)
$$
由于存在整数约束cki ∈ {0, 1}和di ∈{0,1},上述公式成为一个混合整数非线性规划问题,属于NP难问题。因此,为了降低求解难度,将上述问题分解为卸载决策和资源分配两个子问题。
4.2 基于优先级的计算资源分配策略
计算资源分配任务的复杂性主要源于子任务之间复杂的依赖关系。与原子任务和串行任务不同,子任务之间同时存在带有依赖关系的串行化和并行性,且执行顺序不确定。不同的执行顺序甚至可能导致显著不同的卸载结果。如何确定一个最优的执行调度序列以获得最佳的卸载结果是一个关键问题[30]。
一般来说,计算资源分配任务必须解决两个问题:
1) 如何从复杂的子任务依赖关系中提取有价值的信息,以确定子任务的卸载调度序列,从而最大化卸载效益。对于一项计算资源分配任务,我们必须首先确保子任务之间的依赖关系不会被违反。具有依赖关系的两个子任务必须串行执行,且顺序不可颠倒。其次,必须妥善处理可以并行执行的子任务。这些任务不同的调度序列将导致显著不同的调度结果。因此,必须充分考虑各种影响因素,以确定合适的调度序列。
2) 卸载服务器选择问题。在所述的云边计算环境中存在异构的边缘服务器,每个服务器的计算和通信能力可能不同。因此,如何将子任务卸载到理想的服务器以最大化卸载效益,也是一个需要重点关注的问题。
上述两个复杂问题通过按照一定规则对子任务进行优先级排序来解决。对于边缘设备i的计算资源分配任务,其子任务 φ的优先级定义如下:
$$
Rank(i, \varphi) = T_{i,\varphi} + \lambda_i T_{-i,\varphi} + \max_{\varphi’ \in succ(\varphi)} \left[ Rank(i, \varphi’) + (1-\omega_i) T_{\varphi’\varphi} \right] \quad (15)
$$
其中Ti,φ 是子任务 φ 在所有 CPU(包括本地设备和边缘计算服务器)上的平均计算时间。succ(φ) 是子任务 φ 的所有后续子任务的集合,Tφ’φ 是 φ 和φ′ 之间的平均数据交换时间,其表达式为:
$$
T_{i,\varphi} = \frac{1}{|S|+1} \sum_{s \in S \cup {-1}} T_s(i,\varphi)
$$
$$
T_{\varphi\varphi’} = \frac{1}{|S|} \sum_{m \in S} T_{(-i)m}^{\varphi\varphi’} \quad (16)
$$
如果子任务φ′ 依赖于 φ 的输出数据,则必须满足Rank(i, φ) > Rank(i,φ′)。这表明,只要按照优先级从高到低的顺序调度子任务执行,就能保证子任务之间的依赖关系得到满足。同时,对于具有并行性的子任务,确保本地计算和通信传输时间较长、本地计算能耗较高或数据传输能耗较低的子任务具有更高的卸载优先级。也就是说,如果按照子任务优先级从高到低的顺序进行卸载决策,不仅可以保证子任务间的固有依赖关系,还可能优化任务的总延迟和边缘设备的能耗[31]。
基于上述分析,云边计算环境中针对IoHT设备的计算资源分配优化策略的提出过程如图2所示。
通过为每个子任务分配优先级,有效避免了分析和计算资源分配时子任务的复杂性。同时,该优先级确定方法在确保算法时间复杂度较低的前提下,潜在地全面优化了计算延迟和能耗。因此,这是一种更高效且轻量级的调度卸载策略[32]。
4.3 即时通讯隐私数据保护
图3显示了大多数物联网移动智能终端中即时通讯软件在运行时的数据流使用。终端A向终端B发送消息,该消息首先被传输到云服务器。当服务器接收到信息并将其转发给终端B时,还会向终端A发送指令,表示消息已成功传输[33]。这种通信机制将云服务器用作消息中转站和处理中心,虽然确保了消息传输的可靠性,但随着移动智能终端的普及,单个服务器必须同时容纳数十万的并发连接。这不仅给云服务器带来了巨大的带宽负载压力和高计算能力需求,还存在大规模隐私数据泄露的风险。
针对上述风险,提出利用边缘计算设备构建局域网通信网络,使同一局域网下的终端设备通过套接字连接到边缘设备服务器。独立选择通信目标并建立点对点私有通信线程,如图4所示。这样,消息数据不再需要通过云服务器转发,仅在边缘设备之间传输。边缘设备平台不仅是数据传输中心,同时也是数据加密中心。边缘设备平台始终对收发的数据进行加密。这使得私有数据无论是在终端通信之间的数据传输,还是在边缘设备平台与云服务器之间的数据传输,始终处于加密保护之下。该方法不仅缓解了云服务器的通信压力,还降低了私有通信数据泄露的风险。
当终端A、终端B和终端C位于边缘设备覆盖的同一无线局域网中时,它们可以通过套接字与作为服务器的边缘设备建立连接,从而通过服务器将数据发送到指定终端。以终端A和终端B为例,两者通过以下步骤实现即时通信:
1)终端A和B与边缘设备服务器建立连接。
2)终端A输入接收信息的好友ID及发送内容。
3)边缘设备服务器接收终端A发送的信息,对其进行加密后发送给终端B,终端B接收该信息。
分析上述步骤,终端A发送的数据仅通过边缘服务器传输后直接发送到终端B,而无需经过云服务器该过程。边缘服务器在收到消息后会对数据进行加密。这不仅保护了即时通讯中的数据安全,而且当云服务器获取边缘平台的处理结果时,数据仍处于加密保护状态。这进一步增强了边缘设备平台对私有数据的保护能力。
此类方法适用于在同一区域内发送重要信息,并能有效保护私有数据[34]。在物联网环境下,也适用于在家庭中建立智能家居个人局域网。日常产生的私有数据由边缘设备在本地进行处理和加密,降低了个人隐私泄露的风险。
5 实验方案与结果分析
通过设置相应的仿真参数,使用MATLAB仿真软件具体评估提出的策略的性能。考虑一个集中式的云边计算网络,其中边缘计算服务器位于宏基站附近。N(N= 5,10, ⋯, 30)个基站在此网络中随机分布,每个基站的覆盖范围为30米。仿真中使用的路径损耗因子等仿真参数如表1所示。
| 参数 | 值 |
|---|---|
| 子信道带宽/B | 0.2 MHz |
| 子信道数量/K | 20 |
| 设备的最大发射功率/Pmax | 23 dBm |
| 背景噪声功率/p0 | -174 dBm/Hz |
| 计算任务大小/bi | 400~1200 kB |
| 用户可容忍的最大延迟/Tmax i | 1~4 秒 |
| 中央处理器所需周期数/Ci | 0.2~1 GHz |
| 边缘计算能力/fci | 4 GHz |
5.1 参数讨论
为了分析权重参数Y对计算资源分配策略能耗的影响,通过改变权重参数的取值来比较能耗的变化情况,结果如图5所示。分别对比了10到50个IoHT设备的情况,并假设每个设备的计算任务的数据大小相同。此外,外部环境保持一致,仅改变权重参数Y的取值。
从图5中可以看出,随着权重参数的增加,计算资源分配策略的能耗也随之增加。这主要是因为此时IoHT设备受到权重参数的影响,权重参数越大,对延迟的关注度越高,需要更多的计算资源进行处理,因此能耗更高。在所提出的场景中,尽管增加权重参数的值会提高系统的能耗,但显著降低了计算任务的执行时间,并大幅减少了整个计算卸载的延迟。对于一些对延迟较为敏感的应用,可以适当增加能耗以换取更低的延迟,从而保证用户体验的质量。在实际应用中,需要根据用户’的计算任务需求以及用户’对延迟和能耗的不同容忍度来调整权重参数。在满足用户’最低延迟要求的情况下,尽可能降低系统能耗。
5.2 设备数量对边缘计算服务器平均CPU利用率的影响分析
IoHT设备数量的增加将导致更多的计算资源被使用,因此边缘计算服务器的CPU使用率会发生变化,如图6所示。
从图6可以看出,边缘计算服务器的CPU占用率以波动方式逐渐增加,最终稳定在占用率不再变化的状态。这是由于随着设备数量的增加,卸载的子任务数量也随之增加,导致服务器的计算资源变得越来越碎片化。最终,严重碎片化的资源无法被进一步利用。同时,无线信道的冲突也更加严重,最终的计算资源分配优化策略自适应地抑制了更多子任务的卸载,从而使服务器的CPU占用率达到稳定状态。
5.3 系统平均延迟的影响因素分析
为了展示提出策略的性能,将其与参考文献[14]、参考文献[18]和参考文献[20]中的优化策略进行比较。分别从用户数量、边缘计算服务器数量、边缘计算服务器和基站的计算能力以及任务到达率方面进行讨论。
5.3.1 不同用户数量下的平均系统延迟
随着用户数量的增加,系统平均延迟的变化如图7所示。
从图7可以看出,随着用户数量的增加,系统平均延迟持续上升。然而,提出的策略相比其他策略具有更低的系统延迟。这是因为提出的策略优化了计算资源的分配,考虑了云边计算服务器和基站的负载情况,并通过最优分配决策和卸载率来分配任务。这充分利用了本地计算资源,同时平衡了云边计算和基站的业务负载,避免了拥塞下的额外延迟开销,有效降低了系统延迟。
5.3.2 边缘服务器数量增加对平均系统延迟的影响
随着云边计算服务器数量的增加,其计算能力不断提高,这更有利于计算资源分配优化。其对系统平均延迟的影响如图8所示。
从图8中可以看出,随着边缘计算服务器数量的增加,平均系统延迟持续下降。这是因为更多的边缘计算服务器提供了更多的分配选项,并缓解了边缘设备之间对计算资源的竞争。同时,所提出策略的延迟性能始终优于其他对比策略。在[14]中提出的策略无法充分有效地挖掘子任务之间的潜在并行性。同时,从图中可以看出,随着边缘计算服务器数量的增加,各种策略之间的时延差距逐渐缩小。这是因为更多的服务器带来了更多的计算和通信资源以及更强的并行性。其他对比策略可以抵消部分缺点,但它们的延迟水平仍然无法超过所提出的策略。
5.3.3 不同计算能力下的平均系统延迟
随着云边计算服务器和基站的计算能力增加,平均系统延迟的变化如图9所示。
从图9可以看出,随着云边计算服务器和基站计算能力的增加,系统平均延迟逐渐降低。在相同情况下,提出的策略相比参考文献[14]、参考文献[18]和参考文献[20]具有明显更低的系统延迟。并且随着计算能力持续增加,系统平均延迟最终趋于稳定。因为系统延迟包括通信延迟和计算延迟。当计算能力受限时,由边缘计算拥塞引起的计算延迟将成为系统延迟的主要因素。而当计算能力持续增加时,各计算设备的负载相对较轻,此时计算延迟差异较小,系统延迟主要取决于通信延迟。提出的策略同时考虑了通信和计算延迟,通过调整用户’的卸载选项和卸载率来最小化系统延迟,从而有效平衡业务负载,同时降低系统’的延迟开销。
5.3.4 不同任务到达率下的平均系统延迟
随着用户任务到达率的增加,系统平均延迟的变化如图10所示。
从图10可以看出,随着任务到达率的增加,平均系统延迟持续增加。并且提出的策略相较于其他对比策略具有更低的平均系统延迟。参考文献[14]仅考虑了通信延迟,而未考虑负载均衡。因此,严重的业务拥塞导致较高的计算延迟。然而,参考文献[18]主要基于平均服务负载阈值方案无法很好地调整用户的卸载选项,也无法有效平衡服务负载。此外,未根据流量负载有效执行合理的用户调度,导致延迟较高。参考文献[20]在能耗方面具有更多优势,但在时间延迟方面存在不足,且未提及用户隐私保护和数据安全。提出的策略考虑了用户与计算服务器之间的计算资源分配,允许用户以最优卸载率选择适当的边缘计算和基站进行卸载,避免业务拥塞,并有效提升系统性能。
6 结论
本文提出了一种在云边计算环境中考虑隐私保护的大规模IoHT设备计算资源分配优化策略。基于5G异构云边计算网络,对系统的计算延迟、通信以及边缘服务器计算资源分配进行了建模。此外,以网络计算资源分配的时间延迟和能耗为优化目标,采用优先级计算资源分配策略,实现高效数据处理。同时,针对IoHT中存在的大规模隐私数据泄露风险,设计了一种即时通讯隐私数据保护模型。该模型无需云服务器转发,可通过套接字直接连接边缘服务器,显著提升了私有数据的安全性能。最后,在MATLAB仿真平台上通过实验验证了所提出策略的性能。结果表明,边缘计算服务器数量的增加会提高中央处理器的占用比例。与其他对比策略相比,用户数量、边缘计算服务器数量、设备计算能力以及任务到达率对提出的策略的平均延迟影响最小,有效提升了分配策略的性能。
为了提供高质量服务并最大化资源利用率,下一步的研究将聚焦于计算资源分配策略、边缘计算网络协同、边缘缓存等的结合。
1444

被折叠的 条评论
为什么被折叠?



