边缘计算与个性化学习的前沿探索
1. 边缘计算现状与挑战
1.1 移动设备计算局限
移动设备因计算资源和内存需求大,难以支持多数智能系统。当前许多端侧服务仅支持简单机器学习模型,解决方案多聚焦于减小模型大小。例如,Neurosurgeon将深度神经网络(DNN)分为两部分,一半置于边缘设备,另一半放在云端,以降低总延迟和能耗。在DNN中,各节点输出大小从前端到后端递减,而计算延迟变化则相反。
1.2 边缘计算发展
近年来,边缘和移动设备计算发展迅速。如家庭个人数据分析,英特尔的Movidius神经计算棒可加速边缘AI编程和DNN推理应用部署。边缘计算还通过支持对等和缓存来推动内容分发,华为认为移动设备上原生AI处理的速度和响应能力是智能手机创新新时代的关键。
1.3 移动ML分析挑战与解决方案
将机器学习分析从云端转移到边缘设备面临诸多挑战,边缘和移动设备计算能力和工作内存有限。为适应边缘设备的大量ML计算,可训练合适的小模型进行推理,但这会导致准确性和用户体验不佳。一些技术可增强此方法:
- Lei等人使用压缩n - gram语言模型进行实时模型重评分,以减少语音识别应用的内存和磁盘使用。
- Chen等人提出HashNets网络架构,减少神经网络模型冗余,在不影响预测准确性的情况下减小模型大小。
- 谷歌的MobileNets通过卷积操作分解技术减小模型大小。
2. Databox平台
2.1 Databox概述
Databox是一个开源的个人联网设备,借助云托管服务增强功能,在数据主体控制下整理、管理和调解
超级会员免费看
订阅专栏 解锁全文
1340

被折叠的 条评论
为什么被折叠?



