《TensorFlow技术解析与实战》第15章 TensorFlow线性代数编译框架XLA

本文深入探讨了TensorFlow的XLA线性代数编译框架,阐述了XLA的优势,如提高执行速度、优化内存使用,并介绍了其工作原理,包括JIT编译的实现方式,以及在MNIST上的性能比较。XLA利用LLVM进行编译优化,旨在为开发者提供更好的性能和可移植性。

XLA(Accelerated Linear Algebra)是用于线性代数领域的专用编译器(domain-specific compiler),用于优化TensorFlow计算。XLA通过即时(just-in-time,JIT)编译提前(ahead-of-time,AOT)编译来进行实验,尤其有助于面向硬件加速的开发者。XLA框架目前还是处于试验阶段的。

本章我们主要讲述XLA的优势、工作原理和XLA的一些应用。[1]

XLA是一个线性代数的领域专用编译器,能在执行速度、内存的使用、对自定义操作的依赖、移动端的内存占用和可移植性等方面优化了TensorFlow的计算。

  • 提高执行速度。通过编译子图来减少生命周期较短的操作的执行时间,通过融合管道化的操作来减少内存占用。
  • 提高内存的使用。分析和规划内存的使用需求,消除许多中间结果的缓存。
  • 减少对自定义操作的依赖。通过提高自动化融合底层操作(low-level op)的性能,达到原先需要手动融合自定义操作(custom op)的效果。
  • 减少移动端的内存占用(移动端的应用详见第19章)。一是通过提前(AOT)编译子图来减少TensorFlow的执行时间,二是通过共享头文件对(如xxx.o和xxx.h)被其他程序直接链接。这两个操作能够使移动端预
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人民邮电出版社有限公司

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值