网络移动性与服务器资源分配算法研究
1. 网络移动性协议性能分析
1.1 移动网络切换情况
当移动网络在根 Nemo 域内移动时,会发生 Nemo 域内切换,此时根移动路由器(root - MR)地址不变。在这种情况下,MR 无需向归属代理(HA)更新绑定信息,仅执行路由过程。
1.2 网络移动性支持协议对比
对以下几种网络移动性支持协议进行了性能分析:
- 基本支持协议(BASIC)
- 使用双向隧道的路由优化方法(TLMR)
- HMNR 方案(HMNR - B 和 HMNR - E)
具体特性对比见下表:
| 协议 | 信令量 | 信令延迟 | 信令复杂度 | 切换延迟 | 传输延迟 | 域内数据传输 | 可扩展性 | 微移动性 |
| — | — | — | — | — | — | — | — | — |
| BASIC | 小 | 大 | 小 | 大 | 大 | N/A | 大 | N/A |
| TLMR | 大 | 中 | 大 | 中 | 中 | 可能 | 中 | 可能 |
| HMNR - B | 小 | 中 | 小 | 中 | 中 | 支持 | 大 | 支持 |
| HMNR - E | 中 | 小 | 中 | 小 | 小 | 支持 | 中 | 支持 |
从表中可以看出,Nemo 基本支持协议和 HMNR - B 方案的信令开销最小,因为在根 MR 切换时无需执行绑定过程,所以在信令复杂度和可扩展性方面具有优势。但基本支持协议由于“迂回”问题,在信令延迟、切换延迟和数据传输延迟方面存在不足。而 HMNR - E 方案在数据传输和信令方面的延迟最小,并且能很好地支持域内切换和通信,无需额外扩展就能支持微移动性。
1.3 性能分析结果
1.3.1 域间和域内通信环境
- 域间通信 :路由优化方法的信令延迟比基本支持协议短,切换延迟也最小。HMNR - E 方案的数据传输延迟比 TLMR 方案短,因为来自通信对端(CN)的数据直接传输到根 MR。
- 域内通信 :当移动网络深度保持不变(为 6)时,信令完成时间恒定,HMNR 方案的信令完成时间最短,数据传输延迟也最小,因此该方案为移动网络提供了最优的域内通信。
1.3.2 数据包开销和处理负载
随着移动网络深度的增加,基本支持协议和 TLMR 方案的数据包开销增加,因为它们使用了多重封装。在处理负载分析中,基本支持协议和 HMNR - B 的信令量最少,信令复杂度和平均处理负载较低。TLMR 方案的处理负载增加,因为根 MR 执行了大量的隧道处理过程。而 HMNR 方案通过最小化根 MR 的作用,让嵌套 MR 分担信令角色,产生了与基本支持协议类似的结果。
下面是一个简单的 mermaid 流程图,展示不同协议在域内和域间通信时的大致性能对比:
graph LR
classDef startend fill:#F5EBFF,stroke:#BE8FED,stroke-width:2px;
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px;
classDef decision fill:#FFF6CC,stroke:#FFBC52,stroke-width:2px;
A([开始]):::startend --> B{通信环境}:::decision
B --> |域间| C(路由优化方法):::process
B --> |域内| D(HMNR方案):::process
C --> E(信令延迟短):::process
C --> F(切换延迟小):::process
C --> G(HMNR - E数据传输延迟短):::process
D --> H(信令完成时间短):::process
D --> I(数据传输延迟小):::process
E --> J([结束]):::startend
F --> J
G --> J
H --> J
I --> J
2. 集群式网络服务器资源分配自适应算法
2.1 算法背景
互联网社区不断发展,对网络性能研究的需求日益重要,以提高 Web 用户的服务响应时间。由于互联网流量具有突发特性,需要控制流量到达率的突发性,同时持续监控 Web 服务器的利用率,确保高服务级别协议(SLA)的用户请求能得到更快处理,并在服务器过载时拒绝请求。
2.2 算法概述
开发了一种驻留在 Web 交换机中的算法,该算法根据服务质量(QoS)属性的资源分配策略,在一组服务器之间分配工作负载。算法包含一个奖励机制,用于实时控制预测的准确性。
2.3 算法组成
调度算法主要由两个阶段组成,按可变时隙时间安排:
-
瞬态阶段
:Web 交换机始终执行该阶段,处理传入请求和传出响应,并在系统的服务器之间平衡负载。
-
计算阶段
:在每个时隙接近结束时,与瞬态阶段并发执行,为下一阶段做准备。
2.4 算法的自适应特性
2.4.1 突发性控制和可变时隙调度时间
对于每个服务器 i,在整个测量间隔内的 http 事务平均到达率记为 $\lambda_i$。对于每个时隙 k 和每个服务器 i,$\lambda_{k,i}$ 是相应的到达率。如果 $\lambda_{k,i} > \lambda_i$,则该时隙被视为“突发”时隙。给定 m 个时隙,突发性因子 b 定义为满足 $\lambda_{k,i} > \lambda_i$ 的时隙累积数量 k 的比例。
当算法检测到流量事务峰值(突发性)到达系统时,会缩短检查服务器状态的时间间隔;如果未检测到突发性,则下一个测试周期会变长。观察时间 T 被划分为多个可变持续时间的时隙,时隙数量在运行时也是可变的,在每个时隙结束时计算下一个时隙的数量。具体计算如下:
- 若 $b_{k}=g_{k}=0$,则 $e_{k + 1}=e_{k}/K_{k}$
- 否则,$e_{k + 1}=e_{k}+b_{k} \cdot e_{k}$
其中,$e_{k + 1}$ 是为第 k + 1 个时隙提议的时隙数量,$D_{k + 1}=\frac{T}{e_{k + 1}}$ 是第 k + 1 个时隙的持续时间。
2.4.2 基于服务器利用率的资源分配
传入的 http 请求由两类用户生成:一类用户(class - I)和二类用户(class - 2)。一类用户的服务级别协议(SLA)要求更高,因此他们的请求主要由性能最佳的服务器处理,而二类用户的请求由其余服务器处理。
服务器被组织成两个符号循环(RR)队列,每个流量类一个。当服务器达到某个流量类的利用率限制时,在利用率下降之前,它将不再接收该流量类的 http 请求,算法会将其从相应的 RR 队列中移除,直到下一次检查时间(计算阶段)。当某个流量类的 RR 队列为空时,该类请求将被拒绝。
定义了一个常量加权指数 $c_j$ 表示每个用户类的相对利用率规范,在每个时隙 k 为每个服务器 i 和每个流量类 j 计算一个可变加权指数 $c_{k + 1,i,j}$,具体计算如下:
- 若满足某些条件(如 $max{q_{k + 1,i,j}}$ 或 $min{q_{k + 1,i,j}}$):
- 对于一类用户:$c_{k + 1,i,1}=c_{k,i,1}+a \cdot N \cdot c_1$ 或 $c_{k + 1,i,1}=c_{k,i,1}-a \cdot N \cdot c_1$
- 对于二类用户:$c_{k + 1,i,2}=c_{k,i,2}+a \cdot N \cdot c_2$ 或 $c_{k + 1,i,2}=c_{k,i,2}-a \cdot N \cdot c_2$
- 否则:$c_{k + 1,i,1}=c_{k,i,1}$,$c_{k + 1,i,2}=c_{k,i,2}$
其中,$a=\frac{N}{E}$,N 是服务器数量,E 是缩减因子。
2.5 吞吐量预测器
选择了滤波器预测器(Filter Predictor)和突发预测器(Burst Predictor)的组合作为最佳预测方法。
-
滤波器预测器
:通过以下表达式预测服务器在下一个时隙的吞吐量:
- $\hat{X}
{k + 1,i,j}=\lambda_k \cdot X
{k,i,j}+(1 - \lambda_k) \cdot \hat{X}
{k,i,j}$
- 其中,$\lambda_k$ 是一个概率,根据考虑的时隙数量平衡表达式的权重,间接取决于突发性。
-
突发预测器
:使用锁定指标(Locking Indicator)结合过去两个周期的突发性趋势和吞吐量变化,该指标乘以服务器 i 处理类型 j 请求的利用率 $U
{k - 1,i,j}$,以调整吞吐量预测的增加或减少。
计算服务器候选者的两个吞吐量估计值到原点 (0, 0) 的欧几里得距离,选择距离最大的服务器作为某流量类的“最佳”服务器,距离最小的作为“最差”服务器。
当服务器因达到利用率限制而从 RR 队列中移除时,需要修改预测器的值,因为服务器的吞吐量仅取决于等待处理的请求队列长度 $Q_i$ 和单个请求的响应时间 $W_i$。资源分配仅在活动服务器(包含在 RR 队列中)上执行,当 RR 队列中只有一个服务器时,不进行资源分配,当有两个或更多服务器时,重新计算资源分配并调整最佳和最差服务器的吞吐量预测器。
下面是一个简单的列表总结吞吐量预测器的作用:
- 滤波器预测器:平滑流量峰值,长期准确估计服务器性能。
- 突发预测器:防止因突发流量导致服务器性能计算退化。
综上所述,网络移动性协议的研究为移动网络的高效路由提供了多种选择,而集群式网络服务器资源分配自适应算法则通过控制流量突发性和合理分配服务器资源,提高了 Web 系统的性能和稳定性。
3. 预测准确性评估
3.1 Theil’s U 统计量
预测技术可用于保证特定预测方法对给定数据集的准确性,即预测模型能够重现已知数据的程度。这里基于 Theil’s U 统计量来衡量预测准确性,为避免与利用率指标混淆,将 U 重命名为 Z。该统计量允许将正式预测方法与简单方法(使用最近可用观测值作为预测)进行相对比较。
Theil’s U 统计量的相关公式如下:
- 预测相对变化:$FPE_{t + 1}=\frac{F_{t + 1}-F_t}{F_t}$
- 实际相对变化:$APE_{t + 1}=\frac{r_{t + 1}-r_t}{r_t}$
其中,$F_t$ 是时间 t 的预测值,$r_t$ 是时间 t 的观测值。
Theil’s U 统计量的直观解释如下:
- 若 Z 值小于 1,表明所使用的预测技术优于简单方法。
- 若 Z = 1,说明简单方法至少与被评估的预测技术一样好。
3.2 预测控制
为了保证预测的准确性,算法通过奖励机制实时控制预测的准确性。当预测结果与实际情况相符时,给予一定的奖励,反之则进行调整。具体的调整方式可以根据实际情况进行设计,例如调整预测器的参数等。
下面是一个 mermaid 流程图,展示预测准确性评估和控制的流程:
graph LR
classDef startend fill:#F5EBFF,stroke:#BE8FED,stroke-width:2px;
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px;
classDef decision fill:#FFF6CC,stroke:#FFBC52,stroke-width:2px;
A([开始]):::startend --> B(收集数据):::process
B --> C(计算 Theil's U 统计量 Z):::process
C --> D{Z < 1?}:::decision
D --> |是| E(预测技术有效):::process
D --> |否| F(调整预测器参数):::process
E --> G(继续预测):::process
F --> B
G --> H(实时监控预测结果):::process
H --> I{预测与实际相符?}:::decision
I --> |是| J(给予奖励):::process
I --> |否| F
J --> G
G --> K([结束]):::startend
4. 实验结果与总结
4.1 实验结果
通过实验对上述网络移动性协议和服务器资源分配自适应算法进行了验证。在网络移动性协议方面,实验结果与理论分析一致,HMNR 方案在域内通信中表现出了最优的性能,信令完成时间短,数据传输延迟小。在服务器资源分配自适应算法方面,算法能够有效地控制流量的突发性,根据服务器的利用率合理分配资源,提高了 Web 系统的性能和稳定性。
以下是一个简单的表格,展示不同协议和算法在实验中的部分性能指标对比:
| 项目 | 信令延迟 | 数据传输延迟 | 服务器利用率控制 | 突发性处理 |
| — | — | — | — | — |
| HMNR 方案 | 短 | 小 | 优 | 好 |
| 基本支持协议 | 长 | 大 | 一般 | 差 |
| 自适应算法 | - | - | 优 | 好 |
4.2 总结
本文对网络移动性协议和集群式网络服务器资源分配自适应算法进行了深入研究。在网络移动性方面,分析了多种协议的性能,推荐使用 HMNR 方案来实现移动网络的高效路由。在服务器资源分配方面,提出的自适应算法通过控制流量突发性和合理分配资源,提高了 Web 系统的性能和稳定性。
具体来说,该算法具有以下优点:
1.
自适应调整
:能够根据流量的突发性和服务器的利用率动态调整时隙时间和资源分配。
2.
准确预测
:通过滤波器预测器和突发预测器的组合,准确预测服务器的吞吐量。
3.
实时控制
:利用 Theil’s U 统计量和奖励机制实时控制预测的准确性。
未来,可以进一步优化算法的参数,提高算法的性能和适应性,同时探索将该算法应用于更多复杂的网络环境中。
综上所述,网络移动性和服务器资源分配是网络领域中的重要研究方向,本文的研究成果为相关领域的发展提供了有价值的参考。
超级会员免费看

被折叠的 条评论
为什么被折叠?



