一、概念
混合精度 : fp16 和 fp32
fp16 : 16位浮点数(float16)
fp32 : 32位浮点数 (float32)
二、为什么使用混合精度
fp16 :提高性能( 速度快、内存占用小)
fp32 : 数值稳定性
三、如何使用
1、使用手册(官方文档)
本文介绍了混合精度技术,包括16位浮点数(fp16)和32位浮点数(fp32),探讨了fp16用于提高性能(如速度和内存效率)以及fp32保证数值稳定性的特点。重点提到了如何通过TensorFlow官方文档进行实践。
混合精度 : fp16 和 fp32
fp16 : 16位浮点数(float16)
fp32 : 32位浮点数 (float32)
fp16 :提高性能( 速度快、内存占用小)
fp32 : 数值稳定性
1、使用手册(官方文档)

被折叠的 条评论
为什么被折叠?