本文将介绍如下内容:
- numpy转化为tf.data.Dataset
- tf.data.Dataset方法-repeat,batch
- tf.data.Dataset方法-interleave
- from_tensor_slices中传入set元组参数
- from_tensor_slices中传入dict字典参数
一,numpy转化为tf.data.Dataset
from_tensor_slices中传入的参数可以是list,dict,numpy
1,实现numpy转化为tf.data.Dataset代码
将python或numpy的数据类型转化为tf.data.Dataset数据类型
# 1,将python或numpy的数据类型转化为tf.data.Dataset数据类型
# from_tensor_slices中传入的参数可以是list,dict,numpy
np_data = np.arange(1,13,dtype=np.float32)
np_data = np_data.reshape(3,4)
dataset = tf.data.Dataset.from_tensor_slices(np_data)
print(dataset)# 返回数据类型<TensorSliceDataset>
# 2,tf.data.Dataset方法-遍历
for item in dataset:
print(item)
2,总结代码
import matplotlib as mpl
import matplotlib.pyplot as plt
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tf
from tensorflow import keras
# 打印使用的python库的版本信息
print(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:
print(module.__name__, module.__version__)
# 从内存中构建数据集
# 1,将python或numpy的数据类型转化为tf.data.Dataset数据类型
# from_tensor_slices中传入的参数可以是list,dict,numpy
np_data = np.arange(1,13,dtype=np.float32)
np_data = np_data.reshape(3,4)
dataset = tf.data.Dataset.from_tensor_slices(np_data)
print(dataset)# 返回数据类型<TensorSliceDataset>
#---output---------
2.1.0
sys.version_info(major=3, minor=6, micro=8, releaselevel='final', serial=0)
matplotlib 3.2.1
numpy 1.18.5
pandas 1.0.3
sklearn 0.21.3
tensorflow 2.1.0
tensorflow_core.keras 2.2.4-tf
<TensorSliceDataset shapes: (4,), types: tf.float32>
二,tf.data.Dataset方法-repeat,batch
1,实现tf.data.Dataset方法-repeat,batch代码
# 3,tf.data.Dataset方法-repeat,batch
# 3.1. repeat epoch
# 3.2. get batch
dataset = dataset.repeat(3).batch(3)
for item in dataset:
print(item)
#---output---------
tf.Tensor(
[[ 1. 2. 3. 4.]
[ 5. 6. 7. 8.]
[ 9. 10. 11. 12.]], shape=(3, 4), dtype=float32)
tf.Tensor(
[[ 1. 2. 3. 4.]
[ 5. 6. 7. 8.]
[ 9. 10. 11. 12.]], shape=(3, 4), dtype=float32)
tf.Tensor(
[[ 1. 2. 3. 4.]
[ 5. 6. 7. 8.]
[ 9. 10. 11. 12.]], shape=(3, 4), dtype=float32)
2,总结代码
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import matplotlib as mpl
import matplotlib.pyplot as plt
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tf
from tensorflow import keras
# 打印使用的python库的版本信息
print(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:
print(module.__name__, module.__version__)
# 从内存中构建数据集
# 1,将python或numpy的数据类型转化为tf.data.Dataset数据类型
# from_tensor_slices中传入的参数可以是list,dict,numpy
np_data = np.arange(1,13,dtype=np.float32)
np_data = np_data.reshape(3,4)
dataset = tf.data.Dataset.from_tensor_slices(np_data)
print(dataset)# 返回数据类型<TensorSliceDataset>
# 2,tf.data.Dataset方法-遍历
for item in dataset:
print(item)
# 3,tf.data.Dataset方法-repeat,batch
# 3.1. repeat epoch
# 3.2. get batch
dataset = dataset.repeat(3).batch(3)
for item in dataset:
print(item)
#---output--------
tf.Tensor(
[[ 1. 2. 3. 4.]
[ 5. 6. 7. 8.]
[ 9. 10. 11. 12.]], shape=(3, 4), dtype=float32)
tf.Tensor(
[[ 1. 2. 3. 4.]
[ 5. 6. 7. 8.]
[ 9. 10. 11. 12.]], shape=(3, 4), dtype=float32)
tf.Tensor(
[[ 1. 2. 3. 4.]
[ 5. 6. 7. 8.]
[ 9. 10. 11. 12.]], shape=(3, 4), dtype=float32)
三,tf.data.Dataset方法-interleave
实现代码如下:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import matplotlib as mpl
import matplotlib.pyplot as plt
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tf
from tensorflow import keras
# 打印使用的python库的版本信息
print(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:
print(module.__name__, module.__version__)
# 从内存中构建数据集
# 1,将python或numpy的数据类型转化为tf.data.Dataset数据类型
# from_tensor_slices中传入的参数可以是list,dict,numpy
np_data = np.arange(1,13,dtype=np.float32)
np_data = np_data.reshape(3,4)
dataset = tf.data.Dataset.from_tensor_slices(np_data)
print(dataset)# 返回数据类型<TensorSliceDataset>
# 2,tf.data.Dataset方法-遍历
for item in dataset:
print(item)
# 4,tf.data.Dataset方法-interleave
# case: 文件dataset -> 具体数据集
dataset2 = dataset.interleave(
lambda v: tf.data.Dataset.from_tensor_slices(v), # map_fn 对每个元素做如何的处理
cycle_length = 2, # cycle_length 并行数量
block_length = 3, # block_length 每次取多少数据出来
)
for item in dataset2:
print("------------------")
print(item)
#----output--------
tf.Tensor(1.0, shape=(), dtype=float32)
------------------
tf.Tensor(2.0, shape=(), dtype=float32)
------------------
tf.Tensor(3.0, shape=(), dtype=float32)
------------------
tf.Tensor(5.0, shape=(), dtype=float32)
------------------
tf.Tensor(6.0, shape=(), dtype=float32)
------------------
tf.Tensor(7.0, shape=(), dtype=float32)
------------------
tf.Tensor(4.0, shape=(), dtype=float32)
------------------
tf.Tensor(8.0, shape=(), dtype=float32)
------------------
tf.Tensor(9.0, shape=(), dtype=float32)
------------------
tf.Tensor(10.0, shape=(), dtype=float32)
------------------
tf.Tensor(11.0, shape=(), dtype=float32)
------------------
tf.Tensor(12.0, shape=(), dtype=float32)
四,from_tensor_slices中传入set元组参数
# from_tensor_slices中传入的参数可以是set元组
x = np.array([[1, 2], [3, 4], [5, 6]])
y = np.array(['cat', 'dog', 'fox'])
dataset3 = tf.data.Dataset.from_tensor_slices((x, y))
print(dataset3)
for item_x, item_y in dataset3:
print(item_x.numpy(), item_y.numpy())
# ---output----
<TensorSliceDataset shapes: ((2,), ()), types: (tf.int64, tf.string)>
[1 2] b'cat'
[3 4] b'dog'
[5 6] b'fox'
五,from_tensor_slices中传入dict字典参数
# 5,from_tensor_slices中传入的参数可以是set元组
x = np.array([[1, 2], [3, 4], [5, 6]])
y = np.array(['cat', 'dog', 'fox'])
dataset3 = tf.data.Dataset.from_tensor_slices((x, y))
print(dataset3)
for item_x, item_y in dataset3:
print(item_x.numpy(), item_y.numpy())
# 6,from_tensor_slices中传入的参数可以是dict字段
dataset4 = tf.data.Dataset.from_tensor_slices({"feature": x,"label": y})
for item in dataset4:
print(item["feature"].numpy(), item["label"].numpy())

本文介绍如何使用numpy创建TensorFlow数据集,包括数据集的基础操作如repeat和batch,高级操作interleave,以及不同数据类型如tuple和dict的处理方式。

被折叠的 条评论
为什么被折叠?



