手机端开发深度学习应用

第一步模型压缩
将深度学习模型应用到手机、嵌入式设备,我们应该减少模型内存封装,减少推断时间和减少能源使用。有许多方式解决这些问题,例如量子化,权重简直或者distilling 大模型到小模型.
本文使用在Tensorflow中的量子化工具压缩模型。缩减到8bit权重,没有提供额外的好处例如减少推断时间。时间甚至需要2倍,因为量子化工作对CPU没有优化。
量化模型参数:
1 将模型写入protocol buffer file
2 安装TensorFlow
3 运行下列代码

bazel build
tensorflow/tools/graph_transforms:transform_graph
bazel_bin/tensorflow/tools/graph_transforms/transform_graph – in_graph = /.pb/file
– outputs = “output_node_name”
– out_graph = /the/quantized/.pb/file
– transforms =’quantize_weights’

第二步 使用tensorflow library
第三步 数据预处理
将数据处理成训练数据的格式。特征提取

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值