摘要
- 论文完整标题:IONN: Incremental Offloading of Neural Network Computations from Mobile Devices to Edge Servers
- 论文下载链接:https://pan.baidu.com/s/1GUyXw4nhYw0YFhGl3s-33Q 提取码:iuim
- 这篇论文发表在2018年的国际会议ACM Symposium on Cloud Computing 2018 (B类)
动机
在资源受限的移动设备上运行计算密集型深度神经网络(DNN)的方法一般是,先在中央云服务器上预先安装相应的DNN模型,然后再向中央云服务器进行DNN查询。但是这种方法不适合分散式云设施(比如, cloudlet和边缘/雾服务器),在这种设施中,客户端可以向位于网络边缘的任何附近服务器发送计算请求,因此,在开始执行DNN请求前,客户端需要先将其DNN模型上传到服务器,但如果一次性上传整个模型,会导致时间过长,DNN的推理受阻。
IONN简介
本文提出了IONN,一种基于分块的神经网络增量卸载技术,IONN将客户端的DNN模型划分为几个分区,并逐个将它们上传到边缘服务器,当每个DNN分区到达时,服务器增量地构建DNN模型,同时,在整个DNN模型上传完成前,客户端就可以开始执行DNN。为了确定最佳的DNN分区策略和上传顺序,IONN使用了一种新的基于图的启发式算法。