1. 表示精度和所需内存
float类型和float64类型是一样的,都需要64个bits,而float32需要32个bits。
精度方面,float类型和float64类型在十进制中可以有16位,而float32类型在十进制中有8位,如下:
>>> x = np.float64(1/3)
>>> x
0.3333333333333333
>>> y = np.float32(x)
>>> y
0.33333334
>>> p = 1000*(1/3)
>>> p
333.3333333333333
>>> q = np.float32(p)
>>> q
333.33334
2.转换
(1) ‘float’转’float64’
xxx原本是’float’类型的
x = np.float64(x)
经过上面的xxx就变成了’float64’类型
(2)’float64’转‘float’
yyy原本是’float64’类型的
y = np.float(y)
经过上面的yyy就变成了’float’类型
(3) ‘float64’与‘float32’之间的转换
>>> x = np.float64(1/3)
>>> x
0.3333333333333333
>>> y = np.float32(x)
>>> y
0.33333334
>>> z = np.float64(y)
>>> z
0.3333333432674408
(4) 当出现如下错误时需要进行类型的转换
ValueError: Unknown label type: 'unknown'
3. torch.tensor中的类型转换
(1)当出现以下错误时很可能需要进行类型转换
RuntimeError: cuDNN error: CUDNN_STATUS_BAD_PARAM
这个错误是由于数据类型不一致造成的。
(2)转为float32
a = a.to(torch.float32)
(3)转为float64
a = a.to(torch.float64)
本文详细解析了float、float32与float64三种浮点数类型的区别,包括它们的精度、内存占用以及相互之间的转换方法。同时,介绍了在使用numpy和torch.tensor时可能遇到的类型转换需求及常见错误解决办法。
3613





