应对数据分布外挑战:MNIST 数据集的模型训练与优化
1. 环境搭建
在处理 MNIST 数据集之前,我们需要进行一些基础的环境搭建工作。以下是所需的代码片段,它包含了导入设计和训练模型所需的 TF.Keras API、各种 Python 库,以及加载 TF.Keras API 中预构建的 MNIST 数据集:
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Flatten, Dense, Activation, ReLU
from tensorflow.keras.layers import MaxPooling2D, Conv2D, Dropout
import numpy as np
import random
import cv2
from tensorflow.keras.datasets import mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
Keras 中的数据集是通用格式,为了将其用于训练 DNN 或 CNN,我们需要进行一些初始的数据准备工作:
- 像素数据归一化 :像素数据( x_train 和 x_test )包含原始的 INT8 值(0 到 255),我们将像素数据归一化为 0 到 1 的 FLOAT32 类型。
- 数据重塑 :图像数据
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



