1. 加入优快云的昇思MindSpore社区
2. 安装MindSpore2.0.0-alpha版本
3.1 下载用例代码
3.2 执行脚本
安装download
再次执行脚本
#!/usr/bin/env python
# coding: utf-8
# [](https://authoring-modelarts-cnnorth4.huaweicloud.com/console/lab?share-url-b64=aHR0cHM6Ly9vYnMuZHVhbHN0YWNrLmNuLW5vcnRoLTQubXlodWF3ZWljbG91ZC5jb20vbWluZHNwb3JlLXdlYnNpdGUvbm90ZWJvb2svcjIuMC4wLWFscGhhL3R1dG9yaWFscy96aF9jbi9iZWdpbm5lci9taW5kc3BvcmVfdHJhbnNmb3Jtcy5pcHluYg==&imageid=77ef960a-bd26-4de4-9695-5b85a786fb90) [](https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/notebook/r2.0.0-alpha/tutorials/zh_cn/beginner/mindspore_transforms.ipynb) [](https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/notebook/r2.0.0-alpha/tutorials/zh_cn/beginner/mindspore_transforms.py) [](https://gitee.com/mindspore/docs/blob/r2.0.0-alpha/tutorials/source_zh_cn/beginner/transforms.ipynb)
#
# [基本介绍](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/introduction.html) || [快速入门](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/quick_start.html) || [张量 Tensor](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/tensor.html) || [数据集 Dataset](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/dataset.html) || **数据变换 Transforms** || [网络构建](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/model.html) || [函数式自动微分](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/autograd.html) || [模型训练](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/train.html) || [保存与加载](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/beginner/save_load.html)
# # 数据变换 Transforms
#
# 通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过`map`方法传入,实现对指定数据列的处理。
#
# `mindspore.dataset`提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。
# In[19]:
import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset
# ## Common Transforms
#
# `mindspore.dataset.transforms`模块支持一系列通用Transforms。这里我们以`Compose`为例,介绍其使用方式。
#
# ### Compose
#
# `Compose`接收一个数据增强操作序列,然后将其组合成单个数据增强操作。我们仍基于Mnist数据集呈现Transforms的应用效果。
# In[20]:
# Download data from open datasets
url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/" "notebook/datasets/MNIST_Data.zip"
path = download(url, "./", kind="zip", replace=True)
train_dataset = MnistDataset('MNIST_Data/train')
# In[21]:
image, label = next(train_dataset.create_tuple_iterator())
print("murongmeng", image.shape)
# In[22]:
composed = transforms.Compose(
[
vision.Rescale(1.0 / 255.0, 0),
vision.Normalize(mean=(0.1307,), std=(0.3081,)),
vision.HWC2CHW()
]
)
# In[23]:
train_dataset = train_dataset.map(composed, 'image')
image, label = next(train_dataset.create_tuple_iterator())
print("murongmeng",image.shape)
# 更多通用Transforms详见[mindspore.dataset.transforms](https://www.mindspore.cn/docs/zh-CN/r2.0.0-alpha/api_python/mindspore.dataset.transforms.html)。
# ## Vision Transforms
#
# `mindspore.dataset.vision`模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了`Rescale`、`Normalize`和`HWC2CHW`变换。下面对其进行详述。
# ### Rescale
#
# `Rescale`变换用于调整图像像素值的大小,包括两个参数:
#
# - rescale:缩放因子。
# - shift:平移因子。
#
# 图像的每个像素将根据这两个参数进行调整,输出的像素值为$output_{i} = input_{i} * rescale + shift$。
#
# 这里我们先使用numpy随机生成一个像素值在\[0, 255\]的图像,将其像素值进行缩放。
# In[24]:
random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
print("murongmeng", random_np)
# 为了更直观地呈现Transform前后的数据对比,我们使用Transforms的[Eager模式](https://www.mindspore.cn/tutorials/zh-CN/r2.0.0-alpha/advanced/dataset/eager.html)进行演示。首先实例化Transform对象,然后调用对象进行数据处理。
# In[25]:
rescale = vision.Rescale(1.0 / 255.0, 0)
rescaled_image = rescale(random_image)
print("murongmeng",rescaled_image)
# 可以看到,使用`Rescale`后的每个像素值都进行了缩放。
# ### Normalize
#
# `Normalize`变换用于对输入图像的归一化,包括三个参数:
#
# - mean:图像每个通道的均值。
# - std:图像每个通道的标准差。
# - is_hwc:输入图像格式为(height, width, channel)还是(channel, height, width)。
#
# 图像的每个通道将根据`mean`和`std`进行调整,计算公式为$output_{c} = \frac{input_{c} - mean_{c}}{std_{c}}$,其中 $c$代表通道索引。
# In[26]:
normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
print("murongmeng",normalized_image)
# ### HWC2CWH
#
# `HWC2CWH`变换用于转换图像格式。在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CWH格式需求时,可使用该变换进行处理。
#
# 这里我们先将前文中`normalized_image`处理为HWC格式,然后进行转换。可以看到转换前后的shape发生了变化。
# In[27]:
hwc_image = np.expand_dims(normalized_image, -1)
hwc2cwh = vision.HWC2CHW()
chw_image = hwc2cwh(hwc_image)
print("murongmeng", hwc_image.shape, chw_image.shape)
# 更多Vision Transforms详见[mindspore.dataset.vision](https://gitee.com/mindspore/mindspore/blob/r2.0.0-alpha/docs/api/api_python/mindspore.dataset.transforms.rst#视觉)。
# ## Text Transforms
# `mindspore.dataset.text`模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。这里简单介绍其使用方法。
#
# 首先我们定义三段文本,作为待处理的数据,并使用`GeneratorDataset`进行加载。
# In[28]:
texts = [
'Welcome to Beijing',
'北京欢迎您!',
'我喜欢China!',
]
# In[29]:
test_dataset = GeneratorDataset(texts, 'text')
# ### BasicTokenizer
#
# 分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。这里我们选择基础的`BasicTokenizer`举例。配合`map`,将三段文本进行分词,可以看到处理后的数据成功分词。
# In[30]:
test_dataset = test_dataset.map(text.BasicTokenizer())
print("murongmeng",next(test_dataset.create_tuple_iterator()))
# ### Lookup
#
# `Lookup`为词表映射变换,用来将Token转换为Index。在使用`Lookup`前,需要构造词表,一般可以加载已有的词表,或使用`Vocab`生成词表。这里我们选择使用`Vocab.from_dataset`方法从数据集中生成词表。
# In[31]:
vocab = text.Vocab.from_dataset(test_dataset)
# 获得词表后我们可以使用`vocab`方法查看词表。
# In[32]:
print("murongmeng",vocab.vocab())
# 生成词表后,可以配合`map`方法进行词表映射变换,将Token转为Index。
# In[33]:
test_dataset = test_dataset.map(text.Lookup(vocab))
print("murongmeng",next(test_dataset.create_tuple_iterator()))
# 更多Text Transforms详见[mindspore.dataset.text](https://gitee.com/mindspore/mindspore/blob/r2.0.0-alpha/docs/api/api_python/mindspore.dataset.transforms.rst#文本)。
# ## Lambda Transforms
#
# Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。在这里,我们首先使用一个简单的Lambda函数,对输入数据乘2:
# In[34]:
test_dataset = GeneratorDataset([1, 2, 3], 'data', shuffle=False)
test_dataset = test_dataset.map(lambda x: x * 2)
print("murongmeng",list(test_dataset.create_tuple_iterator()))
# 可以看到`map`传入Lambda函数后,迭代获得数据进行了乘2操作。
#
# 我们也可以定义较复杂的函数,配合Lambda函数实现复杂数据处理:
# In[35]:
def func(x):
return x * x + 2
test_dataset = test_dataset.map(lambda x: func(x))
# In[36]:
print("murongmeng",list(test_dataset.create_tuple_iterator()))
3.3 执行结果