DNN云边协同工作汇总(持续更新)

DNN云边协同工作汇总(持续更新)

云边协同旨在充分利用云边端资源完成DNN任务的推理计算,将整体模型进行划分后,利用终端设备、边缘服务器以及云计算中心的计算资源,将DNN划分为多个部分,分别部署在不同设备上进行推理。

  • 充分利用系统中可用的计算资源
  • 降低输入数据的传输开销

1 DNN Partitioning

DNN Partitioning 主要研究如何对单个DNN任务进行协同推理

1.1 链式拓扑

垂直划分首次由neurosurgeon这篇论文提出,首次提出了云边协同+模型划分的过程来降低模型推理时延。

1.2 DAG拓扑

DADS使用图论中的最大流最小割算法对DAG拓扑结构进行了分析,解决了一部分含有拓扑结构的模型的划分问题。

### 云边协同环境下的状态识别技术与实现方法 在云边协同环境下,状态识别技术主要依赖于边缘计算与云计算的紧密结合,以实现高效、实时的数据处理与分析。通过将数据预处理和实时决策在边缘设备上执行,可以显著降低数据传输延迟,提高响应速度和系统效率。例如,NI硬件系统正朝着与云平台更紧密集成的方向发展,以便进行远程监控、数据分析、模型训练及系统管理。嵌入式平台如CompactRIO将成为边缘计算的重要节点,在执行本地数据预处理和实时决策后,再上传关键信息至云端[^1]。 此外,针对移动设备上执行基于深度神经网络DNN)的计算密集型任务所面临的挑战,Edgent框架提出了一种解决方案。Edgent通过协同设备与边缘利用边缘计算进行DNN协同推理,实现了DNN划分与合理规模的设计。这种方法不仅协调了强大的云资源与近端边缘资源,还通过在合适的DNN中间层提前退出推理,更大程度减少了计算延迟。考虑到实际部署过程中存在的潜在网络波动,Edgent针对静态与动态网络环境进行了专门设计。在带宽变化缓慢的静态环境中,Edgent借助基于回归的预测模型获得最优配置;而在带宽剧烈变化的动态环境中,则通过在线变点检测算法生成最优执行策略,将当前带宽状态映射至最优配置中[^2]。 为了确保云边协同环境中数据的安全性和隐私保护,必须采取一系列措施。这些措施包括但不限于加强内部培训、利用在线资源和认证课程、与大学合作培养相关人才、鼓励工程师参与实际项目并积累实践经验,以及建立内部知识共享机制以促进团队成员之间的学习与交流[^4]。 ### 示例代码 以下是一个简单的Python示例,展示如何在边缘设备上执行基本的数据预处理,并将结果发送到云端进行进一步分析。 ```python import numpy as np import requests def preprocess_data(data): # 数据预处理步骤 processed_data = np.mean(data, axis=0) return processed_data def send_to_cloud(data): # 发送数据到云端 url = "http://example.com/api/data" response = requests.post(url, json=data) return response.status_code if __name__ == "__main__": # 模拟从传感器获取的数据 sensor_data = np.random.rand(100, 3) # 预处理数据 processed_data = preprocess_data(sensor_data) # 将预处理后的数据发送到云端 status_code = send_to_cloud(processed_data.tolist()) print(f"Data sent to cloud with status code: {status_code}") ``` ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

千里马不常有

整理不易,点滴助力就是不竭动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值