IOTJ论文Computation-Efficient Offloading and Power Control for MEC in IoT Networks by Meta Reinforceme

本文提出一种基于元强化学习的策略,解决物联网网络中移动边缘计算(MEC)的计算任务卸载和功率控制问题,通过优化本地计算和上行传输功耗,有效应对UE资源受限环境下的NP难题。与传统方法相比,该算法能在新环境下快速找到合适的卸载策略,经仿真验证其可行性。

Hossain, M. A., Liu, W., & Ansari, N. (n.d.). Computation-Efficient Offloading and Power Control for MEC in IoT Networks by Meta Reinforcement Learning. IEEE Internet of Things Journal, PP(99), 1–1. https://doi.org/10.1109/JIOT.2024.3355023

在物联网(IoT)网络中,基于元强化学习的计算高效卸载和能量控制用于边缘计算(MEC)。

摘要
由于设备的大量普及和计算服务器的可用性,移动边缘计算(MEC)在执行各种计算任务方面变得越来越受欢迎。MEC在网络边缘提供计算服务,为用户设备(UE)提供其应用程序的降低延迟。然而,在考虑到无线资源分配和功耗管理的情况下,确定适当的UE在MEC中的卸载策略是计算密集型的。此外,该问题是NP难的,使得在合理的时间范围内找到最优解变得具有挑战性。在这项工作中,我们提出了一种基于元强化学习(MRL)的计算任务卸载和功率控制机制,用于处理MEC网络中UE的资源受限环境的NP难度问题。我们首先制定一个优化问题,通过最小化MEC网络中UE的本地计算和上行传输功耗来最大化UE的计算效率。我们在系统中提出了使用二进制卸载(完全卸载或完全本地计算)和部分卸载方案。我们提出的MRL算法可以在短时间内找到适当的UE卸载策略。与传统的深度强化学习算法不同,我们的方法可以解决在新环境中获得适当解决方案的问题。大量的模拟结果证明了我们提出的方法的可行性。

在这里插入图片描述
图1. 基于元强化学习的MEC网络中计算高效卸载和功率控制的系统架构。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王知为

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值