✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。
🍎 往期回顾关注个人主页:Matlab科研工作室
🍊个人信条:格物致知,完整Matlab代码及仿真咨询内容私信。
🔥 内容介绍
1 引言
1.1 研究背景
随着物联网(IoT)、5G通信技术的飞速发展,智能终端设备(如智能手机、自动驾驶汽车、工业传感器)的算力需求与日俱增。深度神经网络(DNN)作为人工智能领域的核心技术,在图像识别、语音处理、智能决策等场景中得到广泛应用。然而,DNN模型的训练与推理过程通常伴随着海量的计算任务和数据传输需求,受限于终端设备的算力、存储容量和电池续航能力,直接在终端本地执行DNN任务往往难以满足实时性和高效性要求。
边缘计算(Edge Computing)技术的出现为解决这一困境提供了有效途径。边缘计算将计算资源和服务部署在靠近终端设备的网络边缘节点(如边缘服务器、基站),通过任务卸载的方式,将终端设备上的部分或全部DNN任务迁移至边缘节点执行,从而降低终端设备的计算负担、减少数据传输延迟、提升任务执行效率。但边缘计算环境具有节点分布分散、资源异构性强、网络带宽波动大、任务动态变化等特点,如何设计高效的DNN卸载策略,实现计算资源的合理分配、任务的最优调度,成为当前边缘计算与人工智能融合领域的研究热点与难点。
1.2 研究意义
合理的DNN卸载策略能够充分发挥边缘计算的资源优势,有效解决终端设备算力不足与DNN任务高算力需求之间的矛盾。具体而言,其研究意义主要体现在以下三个方面:一是提升任务执行性能,通过将复杂的DNN任务卸载至边缘节点,缩短任务推理延迟,满足自动驾驶、远程医疗等实时性要求极高的应用场景需求;二是降低终端设备能耗,减少终端本地计算量,延长电池续航时间,提升移动终端设备的使用体验;三是优化资源利用率,实现边缘节点计算资源的均衡负载,避免部分节点过载而部分节点闲置的情况,提高整个边缘计算系统的运行效率。
1.3 研究现状与不足
目前,国内外学者针对边缘计算环境下的任务卸载策略展开了大量研究。传统的卸载策略主要基于优化理论方法,如整数线性规划、凸优化等,通过建立数学模型求解最优卸载方案。然而,这类方法通常需要假设网络环境稳定、任务需求已知,且计算复杂度较高,难以适应边缘计算环境的动态性和异构性,在大规模任务场景下难以实时求解。
启发式算法(Heuristic Algorithm)是一类基于经验和直观判断的优化算法,具有计算复杂度低、收敛速度快、适应性强等特点,能够在有限时间内找到问题的近似最优解,适用于解决边缘计算环境下复杂的动态卸载优化问题。近年来,已有部分研究将遗传算法、粒子群优化算法、模拟退火算法等启发式算法应用于任务卸载策略设计,但现有研究仍存在诸多不足:一是大多针对通用任务的卸载,未充分考虑DNN模型的层级结构特性(如不同网络层的计算量、数据量差异较大),卸载粒度设计不合理;二是对边缘计算环境的动态变化(如任务 arrival 率波动、网络带宽变化、节点资源故障)适应性不足,缺乏动态调整机制;三是未全面考虑多目标优化需求(如延迟、能耗、资源利用率的协同优化),难以平衡不同性能指标之间的矛盾。
1.4 本文研究内容与结构
本文针对边缘计算环境的异构性、动态性以及DNN任务的特性,研究基于启发式算法的深度神经网络卸载策略,旨在实现延迟、能耗、资源利用率的多目标优化。本文的主要研究内容包括:构建边缘计算环境下的DNN卸载优化模型,明确优化目标与约束条件;设计基于改进启发式算法的卸载决策机制,考虑DNN模型的层级卸载粒度;提出动态自适应调整策略,应对环境与任务的动态变化;通过仿真实验验证所提策略的有效性与优越性。
本文后续结构安排如下:第2章介绍相关基础理论,包括边缘计算架构、DNN模型特性及启发式算法原理;第3章构建边缘计算环境下的DNN卸载优化模型;第4章设计基于改进启发式算法的卸载策略;第5章通过仿真实验验证策略性能;第6章总结全文并展望未来研究方向。
2 相关基础理论
2.1 边缘计算架构与特性
边缘计算架构通常采用“终端设备-边缘节点-云中心”的三级架构模式。其中,终端设备是DNN任务的产生源,包括各类IoT设备、移动终端等,负责采集数据并发起任务请求;边缘节点是距离终端设备较近的计算资源节点,通常包括边缘服务器、边缘网关、基站等,具备一定的计算、存储和通信能力,是任务卸载的核心执行节点;云中心拥有海量的计算和存储资源,主要负责大规模数据的长期存储、复杂模型的训练以及边缘节点无法处理的高复杂度任务。
边缘计算环境具有以下核心特性:一是地理位置分散,边缘节点广泛分布在终端设备附近,能够实现数据的就近处理,降低传输延迟;二是资源异构性强,不同边缘节点的计算能力、存储容量、网络带宽存在较大差异,终端设备的性能也各不相同;三是动态性显著,终端设备的移动、任务请求的随机 arrival 、网络带宽的波动以及边缘节点的动态加入或退出,都会导致边缘计算环境的状态不断变化;四是资源受限性,相较于云中心,边缘节点的计算、存储资源相对有限,需要合理分配资源以提高利用率。
2.2 深度神经网络(DNN)模型特性
DNN模型由多个网络层组成,不同网络层的结构、计算量、数据量存在显著差异。例如,卷积神经网络(CNN)通常包括卷积层、池化层、全连接层等,其中卷积层和全连接层的计算量较大,而池化层的计算量相对较小;同时,浅层网络层的输出数据量较大,深层网络层的输出数据量逐渐减小。这种层级结构特性为DNN任务的分层卸载提供了可能,即可以根据不同网络层的特性,决定将其卸载至边缘节点执行或在终端本地执行,以实现计算与传输成本的最优平衡。
此外,DNN任务的执行具有严格的时序性,后续网络层的执行依赖于前序网络层的输出结果,因此在设计卸载策略时,需要保证任务执行的时序一致性,避免因卸载顺序不当导致的延迟增加。同时,不同DNN任务的实时性需求、数据敏感度也存在差异,例如自动驾驶场景中的图像识别任务对实时性要求极高,而智能家居中的环境监测任务对实时性要求相对较低,这也需要在卸载策略中加以区分。
2.3 启发式算法原理与分类
启发式算法是一类用于解决优化问题的近似算法,其核心思想是通过模拟自然现象、生物行为或人类经验中的规律,在有限的搜索空间内快速找到问题的近似最优解,而无需遍历所有可能的解,因此具有计算复杂度低、收敛速度快、适应性强等优点,适用于解决边缘计算环境下多约束、多目标的DNN卸载优化问题。
常见的启发式算法主要包括以下几类:一是进化算法,如遗传算法(GA)、差分进化算法(DE)等,模拟生物进化过程中的遗传、变异、选择机制,通过种群迭代进化寻找最优解;二是群智能算法,如粒子群优化(PSO)算法、蚁群优化(ACO)算法等,模拟群体生物的协作行为,通过个体之间的信息交互与协作实现全局优化;三是模拟退火算法(SA),模拟物理退火过程中原子的热运动,通过控制温度的下降实现从局部最优解向全局最优解的跃迁;四是贪婪算法,通过每一步的局部最优选择逐步逼近全局最优解,具有计算速度快的特点,但容易陷入局部最优。
不同启发式算法的性能特点存在差异,适用于不同的问题场景。在边缘计算环境下的DNN卸载策略设计中,需要根据卸载问题的目标、约束条件以及环境特性,选择合适的启发式算法,并进行针对性改进,以提升卸载策略的性能。
3 边缘计算环境下DNN卸载优化模型构建
3.1 系统模型假设
为简化问题分析,本文构建的边缘计算DNN卸载系统模型基于以下假设:
-
系统由N个终端设备、M个边缘节点组成,边缘节点与终端设备之间通过无线通信链路连接,边缘节点之间通过有线骨干网络连接,且边缘节点具备与云中心通信的能力,但本文主要考虑边缘节点与终端设备之间的卸载场景,暂不涉及云中心卸载;
-
每个终端设备运行一个DNN任务,DNN任务可按网络层划分为L个可卸载子任务,每个子任务只能选择在终端本地执行或卸载至一个边缘节点执行,且子任务的执行顺序遵循DNN模型的层级时序;
-
边缘节点的计算资源、存储资源为有限值,每个边缘节点可同时处理多个来自不同终端设备的子任务,但处理能力受限于自身的最大算力;
-
无线通信链路的带宽为动态变化值,假设在每个任务卸载周期内,链路带宽保持稳定;数据传输过程中存在一定的传输延迟和能耗,计算过程中存在计算延迟和能耗;
-
终端设备和边缘节点均为理性个体,以实现自身性能指标最优为目标,系统层面追求全局性能指标的均衡优化。
3.2 变量定义
为构建优化模型,定义以下关键变量:
-
卸载决策变量:$x_{i,j,l} \in \{0,1\}$,其中$i \in \{1,2,...,N\}$表示终端设备,$j \in \{0,1,...,M\}$表示执行节点($j=0$表示终端本地,$j \geq 1$表示边缘节点),$l \in \{1,2,...,L\}$表示DNN的第l层子任务。$x_{i,j,l}=1$表示终端设备i的DNN第l层子任务卸载至执行节点j执行,$x_{i,j,l}=0$表示不卸载至该节点;
-
计算资源分配变量:$f_{i,j,l}$表示执行节点j为终端设备i的第l层子任务分配的计算资源(单位:CPU核心数/秒);
-
通信资源分配变量:$b_{i,l}$表示终端设备i的第l层子任务传输过程中占用的无线链路带宽(单位:Mbps);
-
任务相关参数:$D_{i,l}$表示终端设备i的第l层子任务的输入数据量(单位:MB),$C_{i,l}$表示第l层子任务的计算量(单位:CPU周期),$T_{i,l}^{max}$表示第l层子任务的最大容忍延迟(单位:s);
-
执行节点参数:$F_j$表示边缘节点j的最大可用计算资源(单位:CPU核心数/秒),$P_{j,comp}$表示边缘节点j的单位计算能耗(单位:J/CPU周期),$P_{i,comp}$表示终端设备i的单位计算能耗,$P_{i,trans}$表示终端设备i的单位传输能耗(单位:J/MB);
-
通信链路参数:$B_{i,j}$表示终端设备i与边缘节点j之间的最大可用带宽(单位:Mbps),$r_{i,j}$表示链路传输速率(单位:Mbps),与分配的带宽$b_{i,l}$相关,$r_{i,j} \leq b_{i,l} \leq B_{i,j}$。
3.3 目标函数设计
本文的卸载优化目标是实现多目标协同优化,包括最小化系统总延迟、最小化系统总能耗以及最大化边缘节点资源利用率。通过加权求和的方式将多目标转化为单目标优化问题,目标函数如下:
$min\ \Omega = \alpha \cdot T_{total} + \beta \cdot E_{total} - \gamma \cdot U_{total}$
其中,$\alpha$、$\beta$、$\gamma$分别为延迟、能耗、资源利用率的权重系数,满足$\alpha + \beta + \gamma = 1$,可根据不同应用场景的需求调整权重值;$T_{total}$为系统总延迟,$E_{total}$为系统总能耗,$U_{total}$为边缘节点平均资源利用率。
3.3.1 系统总延迟$T_{total}$
系统总延迟包括DNN任务的计算延迟和数据传输延迟两部分。对于终端设备i的第l层子任务,若在本地执行($x_{i,0,l}=1$),则仅产生计算延迟$T_{i,0,l}^{comp} = C_{i,l} / f_{i,0,l}$,其中$f_{i,0,l}$为终端设备i为第l层子任务分配的本地计算资源;若卸载至边缘节点j执行($x_{i,j,l}=1$,$j \geq 1$),则产生传输延迟$T_{i,j,l}^{trans}$和边缘计算延迟$T_{i,j,l}^{comp}$,其中传输延迟$T_{i,j,l}^{trans} = D_{i,l} / r_{i,j}$($r_{i,j}$为传输速率),计算延迟$T_{i,j,l}^{comp} = C_{i,l} / f_{i,j,l}$。由于DNN任务的执行具有时序性,终端设备i的总延迟为各层子任务执行延迟之和,系统总延迟为所有终端设备总延迟的平均值,即:
$T_{total} = \frac{1}{N} \sum_{i=1}^{N} \sum_{l=1}^{L} \sum_{j=0}^{M} x_{i,j,l} \cdot (T_{i,j,l}^{comp} + (1 - \delta_{j,0}) \cdot T_{i,j,l}^{trans})$
其中,$\delta_{j,0}$为克罗内克函数,当$j=0$时$\delta_{j,0}=1$(本地执行无传输延迟),当$j \geq 1$时$\delta_{j,0}=0$(卸载执行存在传输延迟)。
3.3.2 系统总能耗$E_{total}$
系统总能耗包括终端设备的计算能耗、传输能耗以及边缘节点的计算能耗。终端设备i的第l层子任务本地执行时,本地计算能耗为$E_{i,0,l}^{comp} = P_{i,comp} \cdot C_{i,l}$;卸载至边缘节点j执行时,终端设备产生传输能耗$E_{i,j,l}^{trans} = P_{i,trans} \cdot D_{i,l}$,边缘节点产生计算能耗$E_{i,j,l}^{comp} = P_{j,comp} \cdot C_{i,l}$。系统总能耗为所有终端设备和边缘节点能耗之和,即:
$E_{total} = \sum_{i=1}^{N} \sum_{l=1}^{L} [x_{i,0,l} \cdot E_{i,0,l}^{comp} + \sum_{j=1}^{M} x_{i,j,l} \cdot (E_{i,j,l}^{trans} + E_{i,j,l}^{comp})]$
3.3.3 边缘节点平均资源利用率$U_{total}$
边缘节点资源利用率定义为边缘节点实际分配的计算资源与最大可用计算资源的比值。边缘节点j的资源利用率为$U_j = \sum_{i=1}^{N} \sum_{l=1}^{L} x_{i,j,l} \cdot f_{i,j,l} / F_j$,系统平均资源利用率为所有边缘节点利用率的平均值,即:
$U_{total} = \frac{1}{M} \sum_{j=1}^{M} U_j$
3.4 约束条件
卸载优化模型需满足以下约束条件:
-
卸载决策约束:每个子任务只能选择一个执行节点(本地或边缘节点)执行,即$\sum_{j=0}^{M} x_{i,j,l} = 1$,$\forall i,l$;
-
计算资源约束:边缘节点的总分配计算资源不超过其最大可用计算资源,即$\sum_{i=1}^{N} \sum_{l=1}^{L} x_{i,j,l} \cdot f_{i,j,l} \leq F_j$,$\forall j \geq 1$;终端设备的本地分配计算资源不超过其最大可用计算资源,即$\sum_{l=1}^{L} x_{i,0,l} \cdot f_{i,0,l} \leq F_0^i$($F_0^i$为终端设备i的最大本地算力),$\forall i$;
-
通信资源约束:终端设备与边缘节点之间的链路分配带宽不超过最大可用带宽,即$\sum_{l=1}^{L} x_{i,j,l} \cdot b_{i,l} \leq B_{i,j}$,$\forall i,j \geq 1$;
-
延迟约束:每个子任务的执行延迟不超过其最大容忍延迟,即$\sum_{j=0}^{M} x_{i,j,l} \cdot (T_{i,j,l}^{comp} + (1 - \delta_{j,0}) \cdot T_{i,j,l}^{trans}) \leq T_{i,l}^{max}$,$\forall i,l$;
-
变量非负约束:$f_{i,j,l} \geq 0$,$b_{i,l} \geq 0$,$\forall i,j,l$。
4 基于改进启发式算法的DNN卸载策略设计
针对上述构建的DNN卸载优化模型,本文选择粒子群优化(PSO)算法作为基础启发式算法,并结合DNN任务的层级特性和边缘计算环境的动态性进行改进,设计基于改进PSO的DNN卸载策略。PSO算法具有收敛速度快、参数设置简单、易于实现等优点,适合解决多约束、多目标的优化问题。但传统PSO算法在处理复杂动态优化问题时,容易陷入局部最优解,因此需要通过改进惯性权重、学习因子等参数,提升算法的全局搜索能力和动态适应性。
4.1 改进PSO算法的核心设计
4.1.1 粒子编码设计
粒子的编码方式直接决定算法能否准确描述卸载决策问题。本文采用二进制-实数混合编码方式,每个粒子对应一个完整的DNN卸载方案。粒子的维度由终端设备数量N、DNN层数L决定,每个维度包含两个部分:一是二进制部分,表示卸载决策(0表示本地执行,1表示卸载至边缘节点);二是实数部分,表示计算资源分配量和通信带宽分配量。具体而言,对于终端设备i的第l层子任务,粒子的对应维度为$(x_{i,l}, f_{i,l}, b_{i,l})$,其中$x_{i,l} \in \{0,1\}$(0为本地,1为卸载),$f_{i,l}$为分配的计算资源,$b_{i,l}$为分配的通信带宽(仅当$x_{i,l}=1$时有效)。
4.1.2 惯性权重与学习因子改进
传统PSO算法的惯性权重采用固定值或线性递减策略,难以平衡算法的全局搜索能力和局部收敛能力。本文采用自适应惯性权重策略,根据粒子的适应度值动态调整惯性权重:对于适应度值较好的粒子(接近最优解),减小惯性权重,增强局部搜索能力;对于适应度值较差的粒子,增大惯性权重,增强全局搜索能力。自适应惯性权重公式如下:
$w(t) = w_{max} - \frac{w_{max} - w_{min}}{t_{max}} \cdot t + \frac{w_{max} - w_{min}}{t_{max}^2} \cdot t^2$
其中,$w(t)$为第t代的惯性权重,$w_{max}$、$w_{min}$分别为惯性权重的最大值和最小值,$t_{max}$为最大迭代次数,$t$为当前迭代次数。
同时,采用动态学习因子策略,将学习因子$c_1$(个体学习因子)和$c_2$(群体学习因子)设置为随迭代次数动态变化的函数,前期增大$c_1$增强个体探索能力,后期增大$c_2$增强群体协作能力,公式如下:
$c_1(t) = c_{1,max} - \frac{c_{1,max} - c_{1,min}}{t_{max}} \cdot t$
$c_2(t) = c_{2,min} + \frac{c_{2,max} - c_{2,min}}{t_{max}} \cdot t$
其中,$c_{1,max}$、$c_{1,min}$分别为个体学习因子的最大值和最小值,$c_{2,max}$、$c_{2,min}$分别为群体学习因子的最大值和最小值。
4.1.3 适应度函数设计
适应度函数用于评价粒子对应的卸载方案的优劣,直接采用本文构建的优化目标函数的倒数作为适应度函数(由于目标函数为最小化问题,适应度值越大表示方案越优),即:
$Fit = \frac{1}{\Omega + \varepsilon} = \frac{1}{\alpha \cdot T_{total} + \beta \cdot E_{total} - \gamma \cdot U_{total} + \varepsilon}$
其中,$\varepsilon$为极小正数,用于避免分母为零的情况。
4.2 基于改进PSO的DNN卸载决策流程
基于改进PSO的DNN卸载决策流程主要包括初始化、迭代优化、动态调整三个阶段,具体步骤如下:
-
初始化阶段:
-
设置算法参数,包括粒子种群规模、最大迭代次数$t_{max}$、惯性权重范围$[w_{min}, w_{max}]$、学习因子范围$[c_{1,min}, c_{1,max}]$、$[c_{2,min}, c_{2,max}]$,以及目标函数权重系数$\alpha$、$\beta$、$\gamma$;
-
初始化粒子种群,根据粒子编码规则,随机生成多个粒子,每个粒子的卸载决策变量、计算资源分配变量、通信带宽分配变量均满足约束条件;
-
计算每个粒子的适应度值,初始化个体最优解$pbest$(每个粒子的历史最优适应度对应的卸载方案)和群体最优解$gbest$(整个种群的最优适应度对应的卸载方案)。
-
-
迭代优化阶段:
-
更新惯性权重$w(t)$和学习因子$c_1(t)$、$c_2(t)$;
-
根据PSO算法的速度和位置更新公式,更新每个粒子的速度和位置(即卸载决策、资源分配变量);
-
约束处理:对更新后的粒子进行约束检查,若不满足约束条件(如资源分配超过最大可用资源、延迟超过容忍阈值),采用惩罚函数法调整粒子的适应度值,或直接修正粒子位置至可行域内;
-
计算更新后每个粒子的适应度值,更新个体最优解$pbest$和群体最优解$gbest$;
-
判断是否达到最大迭代次数或适应度值收敛(相邻两代的群体最优适应度值差值小于设定阈值),若满足则输出群体最优解$gbest$对应的卸载方案;否则,返回步骤4.2.1继续迭代。
-
-
动态调整阶段:
-
实时监测边缘计算环境的状态变化,包括任务 arrival 率、网络带宽、边缘节点资源占用情况等;
-
若环境状态变化超过设定阈值(如链路带宽下降10%以上、新任务加入导致资源紧张),则重新初始化部分粒子(保留历史最优解对应的粒子),返回迭代优化阶段,重新求解最优卸载方案,实现动态调整。
-
4.3 层级卸载粒度优化
考虑到DNN模型不同网络层的计算量、数据量差异较大,传统的整体卸载(将整个DNN任务卸载至边缘节点)或完全本地执行方式难以实现资源的最优分配。本文结合改进PSO算法,提出层级卸载粒度优化机制:对于每个DNN网络层,根据其计算量$C_{i,l}$、数据量$D_{i,l}$以及终端设备与边缘节点的资源状态,通过算法自适应决策该层是否卸载。
具体而言,在粒子编码和适应度函数计算过程中,充分考虑各层子任务的特性:对于计算量小、数据量大的浅层网络层,优先选择本地执行,以减少数据传输延迟和能耗;对于计算量大、数据量小的深层网络层,优先选择卸载至边缘节点执行,以利用边缘节点的算力优势,降低计算延迟。通过改进PSO算法的迭代优化,自动寻找最优的层级卸载组合,实现卸载粒度的精细化优化。
5 总结与展望
5.1 全文总结
本文针对边缘计算环境的异构性、动态性以及DNN任务的高算力、高延迟需求,研究了基于启发式算法的深度神经网络卸载策略。首先,构建了边缘计算环境下的DNN卸载多目标优化模型,明确了以最小化系统总延迟、最小化系统总能耗、最大化边缘节点资源利用率为目标的优化函数,并考虑了卸载决策、资源分配、延迟等约束条件;其次,选择粒子群优化(PSO)算法作为基础,通过改进惯性权重、学习因子,设计二进制-实数混合编码方式和适应度函数,提出了基于改进PSO的DNN卸载决策算法,并结合DNN模型的层级特性,实现了层级卸载粒度的精细化优化;最后,通过仿真实验验证了所提策略的优越性,实验结果表明,该策略能够有效降低系统延迟和能耗,提高边缘节点资源利用率,且具有较强的动态适应性。
5.2 未来研究方向
本文的研究仍存在一定的局限性,未来可从以下几个方面进一步深入研究:一是考虑多类型DNN任务的混合卸载场景,不同任务的实时性、数据敏感度需求不同,需要设计更具针对性的差异化卸载策略;二是引入联邦学习技术,将DNN模型的训练过程与卸载策略相结合,实现模型训练与推理的协同优化,同时保护数据隐私;三是考虑边缘节点的异构计算资源(如CPU、GPU、FPGA),设计多类型资源的协同分配机制,进一步提升卸载性能;四是探索启发式算法的融合优化,如将PSO算法与遗传算法、模拟退火算法相结合,进一步提升算法的搜索能力和收敛速度;五是基于实际边缘计算平台进行实验验证,提高策略的工程应用价值。
⛳️ 运行结果




🔗 参考文献
[1] 刘惟浩,王诗浩,胡玉其.云-端协同网络计算中基于深度神经网络的任务卸载策略[J].山东通信技术, 2024, 44(3):22-26.
[2] 黄引豪.边缘环境下基于启发式算法的DNN应用计算迁移决策技术[D].福州大学,2021.
[3] 刘振鹏郭超王仕磊陈杰李小菲.基于博弈论和启发式算法的超密集网络边缘计算卸载[J].计算机工程, 2022, 48(12):54-61.DOI:10.19678/j.issn.1000-3428.0063734.
📣 部分代码
🎈 部分理论引用网络文献,若有侵权联系博主删除
👇 关注我领取海量matlab电子书和数学建模资料
🏆团队擅长辅导定制多种科研领域MATLAB仿真,助力科研梦:
🌈 各类智能优化算法改进及应用
生产调度、经济调度、装配线调度、充电优化、车间调度、发车优化、水库调度、三维装箱、物流选址、货位优化、公交排班优化、充电桩布局优化、车间布局优化、集装箱船配载优化、水泵组合优化、解医疗资源分配优化、设施布局优化、可视域基站和无人机选址优化、背包问题、 风电场布局、时隙分配优化、 最佳分布式发电单元分配、多阶段管道维修、 工厂-中心-需求点三级选址问题、 应急生活物质配送中心选址、 基站选址、 道路灯柱布置、 枢纽节点部署、 输电线路台风监测装置、 集装箱调度、 机组优化、 投资优化组合、云服务器组合优化、 天线线性阵列分布优化、CVRP问题、VRPPD问题、多中心VRP问题、多层网络的VRP问题、多中心多车型的VRP问题、 动态VRP问题、双层车辆路径规划(2E-VRP)、充电车辆路径规划(EVRP)、油电混合车辆路径规划、混合流水车间问题、 订单拆分调度问题、 公交车的调度排班优化问题、航班摆渡车辆调度问题、选址路径规划问题、港口调度、港口岸桥调度、停机位分配、机场航班调度、泄漏源定位
🌈 机器学习和深度学习时序、回归、分类、聚类和降维
2.1 bp时序、回归预测和分类
2.2 ENS声神经网络时序、回归预测和分类
2.3 SVM/CNN-SVM/LSSVM/RVM支持向量机系列时序、回归预测和分类
2.4 CNN|TCN|GCN卷积神经网络系列时序、回归预测和分类
2.5 ELM/KELM/RELM/DELM极限学习机系列时序、回归预测和分类
2.6 GRU/Bi-GRU/CNN-GRU/CNN-BiGRU门控神经网络时序、回归预测和分类
2.7 ELMAN递归神经网络时序、回归\预测和分类
2.8 LSTM/BiLSTM/CNN-LSTM/CNN-BiLSTM/长短记忆神经网络系列时序、回归预测和分类
2.9 RBF径向基神经网络时序、回归预测和分类
2.10 DBN深度置信网络时序、回归预测和分类
2.11 FNN模糊神经网络时序、回归预测
2.12 RF随机森林时序、回归预测和分类
2.13 BLS宽度学习时序、回归预测和分类
2.14 PNN脉冲神经网络分类
2.15 模糊小波神经网络预测和分类
2.16 时序、回归预测和分类
2.17 时序、回归预测预测和分类
2.18 XGBOOST集成学习时序、回归预测预测和分类
2.19 Transform各类组合时序、回归预测预测和分类
方向涵盖风电预测、光伏预测、电池寿命预测、辐射源识别、交通流预测、负荷预测、股价预测、PM2.5浓度预测、电池健康状态预测、用电量预测、水体光学参数反演、NLOS信号识别、地铁停车精准预测、变压器故障诊断
🌈图像处理方面
图像识别、图像分割、图像检测、图像隐藏、图像配准、图像拼接、图像融合、图像增强、图像压缩感知
🌈 路径规划方面
旅行商问题(TSP)、车辆路径问题(VRP、MVRP、CVRP、VRPTW等)、无人机三维路径规划、无人机协同、无人机编队、机器人路径规划、栅格地图路径规划、多式联运运输问题、 充电车辆路径规划(EVRP)、 双层车辆路径规划(2E-VRP)、 油电混合车辆路径规划、 船舶航迹规划、 全路径规划规划、 仓储巡逻
🌈 无人机应用方面
无人机路径规划、无人机控制、无人机编队、无人机协同、无人机任务分配、无人机安全通信轨迹在线优化、车辆协同无人机路径规划
🌈 通信方面
传感器部署优化、通信协议优化、路由优化、目标定位优化、Dv-Hop定位优化、Leach协议优化、WSN覆盖优化、组播优化、RSSI定位优化、水声通信、通信上传下载分配
🌈 信号处理方面
信号识别、信号加密、信号去噪、信号增强、雷达信号处理、信号水印嵌入提取、肌电信号、脑电信号、信号配时优化、心电信号、DOA估计、编码译码、变分模态分解、管道泄漏、滤波器、数字信号处理+传输+分析+去噪、数字信号调制、误码率、信号估计、DTMF、信号检测
🌈电力系统方面
微电网优化、无功优化、配电网重构、储能配置、有序充电、MPPT优化、家庭用电
🌈 元胞自动机方面
交通流 人群疏散 病毒扩散 晶体生长 金属腐蚀
🌈 雷达方面
卡尔曼滤波跟踪、航迹关联、航迹融合、SOC估计、阵列优化、NLOS识别
🌈 车间调度
零等待流水车间调度问题NWFSP 、 置换流水车间调度问题PFSP、 混合流水车间调度问题HFSP 、零空闲流水车间调度问题NIFSP、分布式置换流水车间调度问题 DPFSP、阻塞流水车间调度问题BFSP
👇
693

被折叠的 条评论
为什么被折叠?



