19、无人机航时联合分配算法性能分析与实验评估

无人机航时联合分配算法性能分析与实验评估

1. 算法性能分析

1.1 RT - alg 算法

RT - alg 算法能够在多项式时间复杂度 $O((IJ)^6 K \lg(IJ) \lg K)$ 内,以 $\frac{1}{4}+\varepsilon$($\varepsilon > 0$)的近似比获得近似最优解,其中 $I$、$J$ 和 $K$ 分别表示配送点(DG)的数量、可行路线的数量和任务的数量。

证明过程基于以下三个基本思路:
1. 分区拟阵约束与可行解获取 :分区拟阵约束使得通过 $p$ - 交换局部搜索获取可行解成为可能。因为分区拟阵的约束具有分区基交换性质,对于一组可行路线,总能找到另一组可行路线,它们之间最多交换 $p$ 条路线后仍能得到两个可行解。添加或删除路线可视为路线与空集 $\varnothing$ 的交换。
2. 局部最优解的效用下限 :内循环中的局部最优解 $S$ 有一个效用下限,但不能保证近似比。通过多次路线交换可以从局部最优解 $S$ 得到全局最优解 $C$,利用目标函数的次模性,在每次交换路线的并集和差集后,可以得到一个基于特定等式的不等式。然而,由于目标函数是非单调的,需要进一步扩展求解。
3. 外循环搜索与近似比提升 :外循环中搜索多个局部最优解可以提高效用,从而获得具有近似比的近似最优解。在获得 $N_c$ 个局部最优解中的最佳解后,根据相关等式可以得到不等式,进而证明该算法的近似比为 $\frac{1}{4}+\varepsilon$。

最后,分析 RT - alg 算法的时间复杂度,它最多有 $O((IJ)^4 \lg(IJ))$ 次迭代,每次迭代的时间复杂度为 $O((IJ)^2 K \lg(K))$,因此总的时间复杂度为多项式时间复杂度 $O((IJ)^6 K \lg(IJ) \lg K)$。

1.2 RTW - alg 算法

RTW - alg 算法在每次迭代中效用非递减,能够在多项式时间复杂度 $O((IJ)^6 K \lg(IJ) \lg K)$ 内实现收敛。

证明过程如下:
1. 设 $U(x^{(n + 1)}, t^{(n + 1)}, w^{(n)})$ 和 $U(x^{(n + 1)}, t^{(n + 1)}, w^{(n + 1)})$ 分别表示算法第 $n$ 次迭代中步骤 3 和步骤 4 实现的效用。$x^{(n + 1)}$ 和 $t^{(n + 1)}$ 通过算法 6.2 利用初始解 $x^{(n)}$ 进行更新,只有当新解至少有 $\frac{\varepsilon}{I^4J^4}$ 的效用提升时,才会替换旧解,因此有 $U(x^{(n + 1)}, t^{(n + 1)}, w^{(n)}) \geq U(x^{(n)}, t^{(n)}, w^{(n)})$。
2. $w^{(n + 1)}$ 通过贪心算法根据 $x^{(n + 1)}$、$t^{(n + 1)}$ 和 $w^{(n)}$ 计算得到。由于给定 $x$ 和 $t$ 的 RTW 问题是一个具有整数变量 $w$ 的有界背包问题,所以有 $U(x^{(n + 1)}, t^{(n + 1)}, w^{(n + 1)}) \geq U(x^{(n + 1)}, t^{(n + 1)}, w^{(n)})$。

综上,RTW - alg 算法在每次迭代中实现了非递减的解,并且由于 RTW 问题的值有上界,所以该算法能够保证收敛。根据 RT - alg 算法的时间复杂度,RTW - alg 算法的时间复杂度也为 $O((IJ)^6 K \lg(IJ) \lg K)$。

2. 实验评估

2.1 基于轨迹的模拟实验

2.1.1 评估方法与设置

利用北京市的配送数据集,在约 $6084 km^2$ 的大规模区域内进行了广泛的模拟实验,该区域有 239 个配送点(DG)。每个 DG 可用的无人机数量随机在 3 到 7 之间变化。无人机的电池容量、配送重量和不同重量下的能量成本根据实际能量消耗轨迹设置。该区域随机分布着 10000 个传感任务,效用函数设置为 $G_k(t_k) = \min(u_kt_k, U_k)$,其中任务的效用权重 $u_k$ 和效用上限 $U_k$ 分别服从 $[25, 50]$ 和 $[1000, 2000]$ 的均匀随机分布。将实地实验中的 $235872 J$ 作为参考电池容量,为模拟不同 DG 的无人机,让 $E_i$ 在 $[100, 200] KJ$ 内变化。总效用根据相关等式计算,总体额外能量成本的预算在 150 到 200 kJ 之间变化。实验参数设置为 $\varepsilon = 0.01$,$\lambda = 0.5$,$p = 1$,$N_c = 2$,$N = 100$。所有实验在华硕计算机(3 GHz,192 GB RAM)上进行,计算 20 次运行的平均结果。

为了全面评估算法的性能,采用了以下六种基线方法:
1. 贪心效用算法(GU) :贪婪地选择具有最大效用的路线。
2. 贪心成本效率算法(GE) :贪婪地选择成本效率最高的路线,即效用与额外能量成本的比值最大的路线。
3. 贪心距离算法(GD) :贪婪地选择增量距离最小的路线。
4. 启发式算法(HA) :借鉴相关启发式算法(如模拟退火算法)来搜索近似最优路线。
5. 随机路线算法(RA) :在约束条件下随机选择路线。
6. 最优方法(OPT) :使用暴力搜索方法获取最优解,但由于其指数级的时间复杂度,仅在小规模场景中使用。

2.1.2 RT - alg 算法性能
  • 不同预算和 DG 数量下的性能 :在不同预算下,RT - alg 算法的效用始终高于其他方法,平均分别超过 GE、GU、GD、HA 和 RA 19.6%、39.8%、43.0%、95.7% 和 199.4%。除了 RA 由于随机路线选择性能波动外,RT - alg、GE、GU、GD 和 HA 的效用大致随预算增加而增加。在不同 DG 数量下,RT - alg 平均分别超过上述五种方法 29.6%、51.4%、41.9%、101.8% 和 242.0%,并且 DG 数量的变化对效用影响较小。
  • 与 OPT 方法的比较 :在小规模场景(7 个 DG)中,比较 RT - alg 与 OPT 方法的效用和时间成本。OPT 方法的时间成本随 DG 数量呈指数级增长,而 RT - alg 的成本可忽略不计。例如,当有 7 个 DG 和 28 条候选路线时,OPT 方法的时间成本高达约 1.7 小时,而 RT - alg 仅需 2.3 秒。与 OPT 方法相比,RT - alg 平均可以获得 97.5% 的最优效用,时间成本仅为 0.04%。此外,在每个 DG 的路线数量少于 18 的条件下,评估 RT - alg 的近似比,其平均近似比为 98.3%,远高于 $\frac{1}{4}$,说明 $\frac{1}{4}$ 的近似比只是 RT - alg 的下限。

不同算法在不同路线数量下的运行时间比较如下表所示:
| 算法 | J = 12 | J = 18 | J = 24 | J = 32 |
| ---- | ---- | ---- | ---- | ---- |
| RT | 1.0606 | 1.2261 | 1.2965 | 1.4044 |
| GE | 0.1394 | 0.1424 | 0.1531 | 0.1814 |
| GU | 0.0744 | 0.0755 | 0.0761 | 0.0914 |
| GD | 0.0102 | 0.0119 | 0.0125 | 0.0139 |
| RA | 0.0127 | 0.0148 | 0.0148 | 0.0145 |
| OPT | 1.1700e + 03 | 3.6335e + 04 | - | - |

mermaid 流程图展示 RT - alg 算法性能评估流程:

graph LR
    A[设置实验参数] --> B[运行不同算法]
    B --> C[记录不同预算和 DG 数量下的效用]
    C --> D[比较 RT - alg 与其他算法的效用]
    B --> E[在小规模场景下比较 RT - alg 与 OPT 的效用和时间成本]
    E --> F[评估 RT - alg 的近似比]
2.1.3 RTW - alg 算法性能
  • 不同预算、DG 数量和路线数量下的性能 :在不同预算下,RTW - alg 平均分别超过 GE、GU、GD、HA 和 RA 6.0%、20.2%、64.2%、23.2% 和 75.0%;在不同 DG 数量下,分别超过 5.8%、27.1%、42.3%、25.7% 和 79.4%;在不同每个 DG 的路线数量下,分别超过 6.6%、16.3%、37.3%、20.2% 和 69.4%。需要注意的是,DG 数量的增加并不能提高这些方法的效用,因为随机分布的 50 个 DG 有足够的可行路线覆盖大部分任务,此时提高效用的关键因素是能量预算。
  • 收敛性评估 :RTW - alg 算法的效用在每次迭代中都得到提升,并且在六次迭代后迅速收敛,这与算法性能分析中的理论证明一致。
  • 不同 $\lambda$ 设置下的性能 :当 $\lambda$ 从 0.1 变化到 0.9 时,RTW - alg 算法在总效用方面始终优于五种基线方法。与 GU、HA、GE、GD 和 RA 相比,总效用平均分别提高 49.2%、110.0%、14.0%、34.8% 和 348.1%。此外,参数 $\lambda$ 可以在传感效用和配送效用之间进行权衡,RTW - alg 算法的传感效用随 $\lambda$ 增加而上升,而配送效用随 $\lambda$ 增加而下降,可以根据具体应用中传感效用和配送效用的重要性来设置该参数。

2.2 无人机 AQI 监测案例研究

模拟了一个大规模的基于轨迹的案例研究,利用北京市四环内 83 个重要兴趣点(POI)的数据集和配送站数据集,模拟复用配送无人机监测城市 POI 的空气质量指数(AQI)。所有方法的效用随预算增加而提高,我们的方法在各种预算下都能获得最佳效用,平均分别超过 GE、GU、GD、HA 和 RA 36.2%、39.4%、19.6%、100.5% 和 163.3%。

综上所述,基于轨迹的模拟实验表明,我们的方法在有限预算下平均可以比五种基线方法提高 36.2% 的传感和配送效用,并且平均可以获得 97.5% 的最优效用,而时间成本仅为 OPT 方法的 0.04%。

2.2 实地实验

2.2.1 系统实现

构建了一个约 2kg 的配送四轴飞行器,安装了飞行控制器(Pixhawk 2.4.8)和电池(12.6V,5200mAh,235,872J)。使用装有 Mission Planner 的计算机作为控制站,通过无线收发器与无人机通信。控制站能够控制无人机的飞行(如路线和传感时间),并接收其实时飞行状态、能量消耗和传感数据。此外,使用机载电源模块实时监测无人机的电流和电压,以精确测量飞行/悬停的能量消耗,并通过带有砝码的配送箱精确改变配送重量。

2.2.2 实验设置与基线

考虑一个小规模实验场景,在足球场上,一个配送点的两架无人机以 5m/s 的速度从仓库向服务站运送总计 600g 的包裹。球场上分配了七个具有不同效用权重和上限的传感任务。由于小规模实验的候选路线只有六条,因此仅使用贪心距离算法(GD)作为基线。为了评估航时 - 重量联合优化各组件对总体性能的影响,构建了 RTW - alg 的三个变体进行消融研究:
1. RTWwo/w :不使用配送重量的 RTW - alg 算法。
2. RTWwo/wt :不优化配送重量和传感时间的 RTW - alg 算法。
3. RTWwo/s :仅进行包裹配送,不进行人群传感的 RTW - alg 算法。

2.2.3 实验结果

  • 效用评估 :如图所示,在效用方面,RTW - alg 平均分别超过 GD、RTWwo/wt、RTWwo/w 和 RTWwo/s 78.8%、22.1%、8.4% 和 124.7%。这表明航时 - 重量联合优化的各个组件能够提高效用。例如,RTWwo/wt 为了实现最大效用优化了路线选择,选择了路线 4 和 6,而不是 GD 选择的最短距离路线,效用提高了 46.4%。与 RTWwo/w 选择相同配送重量(300g)的路线 4 和 5 相比,RTW - alg 考虑了配送重量的最优分配,让一架无人机以最低重量(50g)飞行路线 6 而不是路线 5,从而覆盖了更多具有更高效用的传感任务。此外,由于野外实验中无人机的风、方向变化和加速/减速会增加实际能量消耗,在能量成本约束下会降低传感效用,因此 GD、RTW - alg、RTWwo/w 和 RTWwo/wt 的实际效用总是低于理论结果。
  • 能量消耗评估 :通过能量利用率(实际能量消耗与无人机电池容量的比值)评估 RTW - alg 的能量消耗。RTW - alg、RTWwo/w、RTWwo/wt、GD 和 RTWwo/s 的能量利用率分别为 96.7%、95.1%、93.8%、56.4% 和 24.5%。因此,RTW - alg 通过航时 - 重量联合优化实现了最高的能量利用率。

不同算法的效用和能量消耗比较如下表所示:
| 算法 | 效用提升比例 | 能量利用率 |
| ---- | ---- | ---- |
| RTW - alg | - | 96.7% |
| RTWwo/w | 低于 RTW - alg 8.4% | 95.1% |
| RTWwo/wt | 低于 RTW - alg 22.1% | 93.8% |
| GD | 低于 RTW - alg 78.8% | 56.4% |
| RTWwo/s | 低于 RTW - alg 124.7% | 24.5% |

mermaid 流程图展示实地实验流程:

graph LR
    A[构建实验系统] --> B[设置实验场景和任务]
    B --> C[选择基线和变体算法]
    C --> D[运行实验并记录数据]
    D --> E[评估效用和能量消耗]

3. 总结

通过对 RT - alg 和 RTW - alg 算法的性能分析和实验评估,得出以下结论:
1. 算法性能 :RT - alg 算法能够在多项式时间内以接近 $\frac{1}{4}+\varepsilon$ 的近似比获得近似最优解,RTW - alg 算法在每次迭代中效用非递减并能在多项式时间内收敛。
2. 实验结果 :基于轨迹的模拟实验和实地实验表明,所提出的算法在效用和能量利用方面均优于多种基线方法。在有限预算下,能够显著提高传感和配送效用,并实现较高的能量利用率。航时 - 重量联合优化的各个组件对提高性能起到了重要作用。

总之,这些算法为无人机的航时和重量联合优化提供了有效的解决方案,具有实际应用的潜力。在实际应用中,可以根据具体需求调整参数,如 $\lambda$,以平衡传感效用和配送效用。未来,可以进一步研究如何在更复杂的场景中优化这些算法,提高其适应性和性能。

内容概要:本文介绍了ENVI Deep Learning V1.0的操作教程,重点讲解了如何利用ENVI软件进行深度学习模型的训练应用,以实现遥感图像中特定目标(如集装箱)的自动提取。教程涵盖了从数据准备、标签图像创建、模型初始化训练,到执行分类及结果优化的完整流程,并介绍了精度评价通过ENVI Modeler实现一键化建模的方法。系统基于TensorFlow框架,采用ENVINet5(U-Net变体)架构,支持通过点、线、面ROI或分类图生成标签数据,适用于多/高光谱影像的单一类别特征提取。; 适合人群:具备遥感图像处理基础,熟悉ENVI软件操作,从事地理信息、测绘、环境监测等相关领域的技术人员或研究人员,尤其是希望将深度学习技术应用于遥感目标识别的初学者实践者。; 使用场景及目标:①在遥感影像中自动识别和提取特定地物目标(如车辆、建筑、道路、集装箱等);②掌握ENVI环境下深度学习模型的训练流程关键参数设置(如Patch Size、Epochs、Class Weight等);③通过模型调优结果反馈提升分类精度,实现高效自动化信息提取。; 阅读建议:建议结合实际遥感项目边学边练,重点关注标签数据制作、模型参数配置结果后处理环节,充分利用ENVI Modeler进行自动化建模参数优化,同注意软硬件环境(特别是NVIDIA GPU)的配置要求以保障训练效率。
内容概要:本文系统阐述了企业新闻发稿在生成式引擎优化(GEO)代下的全渠道策略效果评估体系,涵盖当前企业传播面临的预算、资源、内容效果评估四大挑战,并深入分析2025年新闻发稿行业五大趋势,包括AI驱动的智能化转型、精准化传播、首发内容价值提升、内容资产化及数据可视化。文章重点解析央媒、地方官媒、综合门户和自媒体四类媒体资源的特性、传播优势发稿策略,提出基于内容适配性、间节奏、话题设计的策略制定方法,并构建涵盖品牌价值、销售转化GEO优化的多维评估框架。此外,结合“传声港”工具实操指南,提供AI智能投放、效果监测、自媒体管理舆情应对的全流程解决方案,并针对科技、消费、B2B、区域品牌四大行业推出定制化发稿方案。; 适合人群:企业市场/公关负责人、品牌传播管理者、数字营销从业者及中小企业决策者,具备一定媒体传播经验并希望提升发稿效率ROI的专业人士。; 使用场景及目标:①制定科学的新闻发稿策略,实现从“流量思维”向“价值思维”转型;②构建央媒定调、门户扩散、自媒体互动的立体化传播矩阵;③利用AI工具实现精准投放GEO优化,提升品牌在AI搜索中的权威性可见性;④通过数据驱动评估体系量化品牌影响力销售转化效果。; 阅读建议:建议结合文中提供的实操清单、案例分析工具指南进行系统学习,重点关注媒体适配性策略GEO评估指标,在实际发稿中分阶段试点“AI+全渠道”组合策略,并定期复盘优化,以实现品牌传播的长期复利效应。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值