常用数据集Datasets-Keras数据的导入

写在前面,笔者最近在学习tensorflow(附一个tensorflow中文官方链接https://www.tensorflow.org/tutorials/keras/basic_classification)。遇到了一些问题,下面内容为解决方法。仅适合如笔者一般的小白~~

问题:已有数据的导入

笔者根据文档中的提供的模块下载数据失败,于是选择其他方式下载了数据到指定的文件。

如图,仅为keras中提供的一个数据集下载方法,下载失败后,通过数据集的链接直接到官方下载fashion_mnist数据,保存在文件‘fashion-mnist’中,此时数据集下载后有4个gz文件(如图):

解决:上述数据的导入与keras.datasets.fashion_mnist.load_data()结果相同

代码如下:

上述代码即可实现下载数据集的导入。测试train_images,train_labels,test_images,test_labels的shape:

与通过keras.datasets.fashion_mnist.load_data()结果相同

load_data(path,files)修改path和fies同样适用于‘MNIST_data’,如图:

思路来源:keras.datasets.fashion_mnist.load_data()导入模块中的fashion_mnist.py的代码修改

常用数据集Datasets-Keras数据集说明链接https://keras.io/zh/datasets/

以fashion_mnist数据集为例:上述链接中提及path:如果在本地索引文件(at '~/.keras/datasets/' + path), 它将被下载到该目录。因此找到自己安装的keras/datasets文件下:

打开fashion_mnist.py文件,此文件下提到了下载数据和返回数据集的格式,删除其中下载部分,将路径部分修改为笔者的数据集路径,其他部分保持不变,即可得到导入已有数据的demo。

boston_housing module: Boston housing price regression dataset. cifar10 module: CIFAR10 small images classification dataset. cifar100 module: CIFAR100 small images classification dataset. fashion_mnist module: Fashion-MNIST dataset. imdb module: IMDB sentiment classification dataset. mnist module: MNIST handwritten digits dataset. reuters module: Reuters topic classification dataset. import tensorflow as tf from tensorflow import keras fashion_mnist = keras.datasets.fashion_mnist (x_train, y_train), (x_test, y_test) = fashion_mnist.load_data() mnist = keras.datasets.mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() cifar100 = keras.datasets.cifar100 (x_train, y_train), (x_test, y_test) = cifar100.load_data() cifar10 = keras.datasets.cifar10 (x_train, y_train), (x_test, y_test) = cifar10.load_data() imdb = keras.datasets.imdb (x_train, y_train), (x_test, y_test) = imdb.load_data() # word_index is a dictionary mapping words to an integer index word_index = imdb.get_word_index() # We reverse it, mapping integer indices to words reverse_word_index = dict([(value, key) for (key, value) in word_index.items()]) # We decode the review; note that our indices were offset by 3 # because 0, 1 and 2 are reserved indices for "padding", "start of sequence", and "unknown". decoded_review = ' '.join([reverse_word_index.get(i - 3, '?') for i in x_train[0]]) print(decoded_review) boston_housing = keras.datasets.boston_housing (x_train, y_train), (x_test, y_test) = boston_housing.load_data() reuters= keras.datasets.reuters (x_train, y_train), (x_test, y_test) = reuters.load_data() tf.keras.datasets.reuters.get_word_index( path='reuters_word_index.json' )
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值