tensorflow中Dataset读数性能测试

本文对比了使用Python标准文件读取方式与TensorFlow的Dataset API读取500万条数据的性能。结果显示,Python读取速度极快,而TensorFlow的Dataset在加入shuffle后耗时增加约50%。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先我们随机生成一批数据文件;

可以看到我们总共生成了500万条数,均匀分到20个文件中,全部数据大约220M

现在,我们用python中标准的文件读取方式读入数据,测试结果如下:

读入仅仅只需3秒。

我们接着重复读10次:

耗时31.6秒,大约是单遍读取时间的10倍。

接着我们用tensorflowdataset试试看,测试结果如下:

可以看到耗时8秒。

下面让epoch10再看看dataset的耗时:

耗时80秒,刚好是单个epoch10倍。

下面加入shuffle且让epoch10再看看dataset的耗时:

耗时122秒,可以发现shuffle会增加大约一半的耗时。至此,我们可以断定,在我们测试这种场景下dataset性能实在不怎么样。

### TensorFlow Flowers 数据集使用方法 Flowers 数据集是一个广泛用于图像分类任务的数据集,在 TensorFlow 中可以通过 `tfds` 轻松加载。此数据集包含五个类别的花的照片,每种类别大约有数百张图片。 #### 加载并预览花朵数据集 为了方便处理和展示 flowers 数据集中的样本,可以利用 TensorFlow Datasets (TFDS) 来下载和准备数据: ```python import tensorflow_datasets as tfds import matplotlib.pyplot as plt # 下载并加载 flowers 数据集 dataset, info = tfds.load('tf_flowers', with_info=True, as_supervised=True) # 获取训练集 train_data = dataset['train'] # 预览部分样本 fig = plt.figure(figsize=(8, 8)) for i, (image, label) in enumerate(train_data.take(9)): ax = fig.add_subplot(3, 3, i + 1) ax.imshow(image.numpy()) ax.set_title(info.features['label'].names[label]) plt.show() ``` 上述代码展示了如何通过 TFDS 加载 flowers 数据集,并选取前九个样例进行可视化[^1]。 #### 构建简单的卷积神经网络模型 下面定义了一个基础的 CNN 模型架构来对 flowers 数据集执行分类任务: ```python from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense model = Sequential([ Conv2D(filters=32, kernel_size=(3, 3), activation='relu', input_shape=[None, None, 3]), MaxPooling2D(pool_size=(2, 2)), Conv2D(filters=64, kernel_size=(3, 3), activation='relu'), MaxPooling2D(pool_size=(2, 2)), Flatten(), Dense(units=128, activation='relu'), # 输出层对应五种不同类型的花卉类别数 Dense(units=5, activation='softmax') ]) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) ``` 该模型结构简单明了,适合初学者理解和实践基于 TensorFlow 的图像分类项目。 #### 训练与评估模型性能 完成模型构建之后,就可以开始训练过程并将测试结果绘制成图表以便观察损失变化趋势: ```python history = model.fit( train_data.batch(32), epochs=10, validation_split=0.2 ) all_losses = history.history['loss'] plt.figure() plt.plot(all_losses) plt.xlabel('Epochs') plt.ylabel('Loss Value') plt.title('Training Loss Over Time') plt.show() ``` 这段脚本不仅实现了模型训练还绘制出了整个训练期间内每次迭代后的平均损失值曲线图[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值