TensorFlow Google大会总结

本文介绍TPU的工作原理及如何使用XLA编译器优化性能,探讨TensorFlow新输入库Input Pipeline的优势,并讨论了高级API Estimators的使用方法及其在分布式场景中的应用。此外,还介绍了TFLite在移动设备上的部署。

一、概述

  介绍TPU,需要使用XLA编译,否则没有做内部优化,无法达到加速的效果;

  TPU相关的性能分析器:

二、新版本的输入库

  之前TensorFlow的输入方式:

    • feed_dict: 太过于低效
    • Queue:     python多线程,全局锁的问题;同样低效,而且对应其中错误的数据无法友好处理;

  现在: input pipeline

    相关函数:

      Dataset.XX()

      Dataset.XXX()

      Dataset.XXXX()

  more infomation about Dataset 

三、learn2learn

  功能: 由机器来设计神经网络

  依据: 进化算法

  解决性能问题工具:

    1、timeline   ----   通过chrome来对结果进行分析 

    2、nvprof

    3、XXX 

四、高层API:

  • Estimators
  • keras
  • canned Estimators

  只有Estimators支持分布式TensorFlow;

  recommended:

  使用高级api

  Estimators

  用tf.layer 或 tf.keras 来自定义模型

 TF Serving:

  用于将训练好的模型部署到生产环境中;

  • C++ lib 
    • 模型保存、输出
    • 通用核心架构
  • Binaries
    • 有一些自带的功能
    • 支持docker等  

五、TF Lite:

  用于支撑小型设备,例如手机等嵌入式设备

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值