
TensorFlow Lite 支持在边缘设备上运行机器学习框架 TensorFlow 模型推理。TensorFlow Lite 已部署在全球超过 40 亿台边缘设备上,且支持基于 Android、iOS 和 Linux 的物联网设备及微控制器。 自2017年底 TensorFlow Lite 首次发布以来,我们一直在探索与改进,在保证可靠性的同时让更多开发者(包括机器学习领域的新手)轻松上手使用。本文将重点介绍 TF Lite 最近发布的产品更新,指引您在移动端的机器学习框架学习,助力更加流畅的原型设计、开发应用和生产部署。
更多信息欢迎观看 TensorFlow DevSummit 2020 发布的演讲:
TFLite 从产品原型设计到落地
原型:从最前沿的模型入手
机器学习领域正在飞速发展,因此在投入资源开发功能之前,调研最新技术能带来哪些改善是不可缺失的一环。我们提供了预训练模型的代码库与相应的示例应用。通过示例应用,无需编写任何代码即可在您的设备上试用 TensorFlow Lite 模型。您可以快速将模型集成到自己的应用上。您的应用从设计原型到开始测试用户体验,与以往训练模型所需的时间相当。
TensorFlow Lite 示例应用库介绍
此外,我们也致力于将研究团队的前沿模型引入到 TensorFlow Lite。最近,我们已支持 3 种全新的模型架构:EfficientNet-Lite (论文)、MobileBERT (论文) 和 ALBERT-Lite (论文):

TensorFlow Lite 提供了从原型设计到产品落地的全面工具,包括预训练模型、Model Maker简化模型构建,以及元数据支持代码生成和性能分析。最新更新增加了EfficientNet-Lite、MobileBERT和ALBERT-Lite等前沿模型,以及针对Android和iOS的硬件加速支持。此外,未来将支持更多任务和改进开发者体验。
最低0.47元/天 解锁文章
4360

被折叠的 条评论
为什么被折叠?



