tensorflow2.0莺尾花iris数据集分类|超详细

tensorflow2.0莺尾花iris数据集分类

超详细

直接上代码

#导入模块
import tensorflow as tf #导入tensorflow模块

from sklearn import datasets #导入sklearn中的datasets模块,方便下载内置的iris数据集

from matplotlib import pyplot as plt #导入matplotlib中的pyplot,待会画图

import numpy as np #导入numpy模块做数学运算

#导入数据
x_data = datasets.load_iris().data #导入iris数据集的特征

y_data = datasets.load_iris().target #导入iris数据集的标签

#随机打乱顺序,使训练更具准确性
np.random.seed(120)#调用numpy中的random方法里的seed方法,赋值120,使输入特征和标签能够一一对应

np.random.shuffle(x_data) #调用numpy中的random方法里的shuffle方法,将训练集x_data里的特征值乱序

np.random.seed(120)#调用numpy中的random方法里的seed方法,赋值120,使输入特征和标签能够一一对应

np.random.shuffle(y_data) #调用numpy中的random方法里的shuffle方法,将测试集y_data里的标签乱序

tf.random.set_seed(120)#调用tensorflow中的random方法里的set_seed方法,赋值120

#划分数据集
x_train = x_data[:-30] #将iris数据集(特征,共150行,此时已打乱)前120行作为训练集x_train

y_train = y_data[:-30] #将iris数据集(标签,共150行,此时已打乱)前120行作为训练集y_train

x_test = x_data[-30:] #将iris数据集(特征,共150行,此时已打乱)最后30行作为测试集x_test

y_test = y_data[-30:] #将iris数据集(标签,共150行,此时已打乱)最后30行作为测试集y_test

#转换特征值的数据类型,使之与后面数据运算时数据类型一致
x_train = tf.cast(x_train, dtype = tf.float32) #调用tensorflow中的cast方法,将x_train中的特征值类型转换为float32

x_test = tf.cast(x_test, dtype = tf.float32) #调用tensorflow中的cast方法,将x_test中的特征值类型转换为float32

#用from_tensor_slices方法将特征值和标签值配对
train_data_batch = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)#将训练集的特征x_train和标签y_train配对,用batch方法将120个训练数据分成32个为一组的批次

test_data_batch = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)#将测试集的特征x_test和标签y_test配对,用batch方法将30个训练数据分成32个为一组的批次

#用truncated_normal方法构建神经网络,并用Variable方法标记可训练数据
w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev = 0.1, seed = 1))#用truncated_normal方法,构建4个输入特征,3个分类的神经网络结构,标准差为0.1的正态分布,随机种子为1

b1 = tf.Variable(tf.random.truncated_normal([3], stddev = 0.1, seed = 1))#用truncated_normal方法,因为b1和w1的分类维度要一样,所以是3,标准差为0.1的正态分布,随机种子为1

#设置变量
learnRate = 0.1 #学习率为0.1

train_loss_results = [] #将每轮的loss记录在此列表中,为后面画loss曲线时提供数据

test_accuracy = [] #将每轮的精度accuracy记录在此列表中,为后面画精度accuracy曲线提供数据

epoch = 500 #循环500轮

loss_all = 0 #每轮分4个step,loss_all记录4个step生成的4个loss的和

#训练部分
for epoch in range(epoch): #遍历数据集,每个epoch循环一次数据集
    for step, (x_train, y_train) in enumerate(train_data_batch): #遍历batch,每个step循环一次batch
        with tf.GradientTape() as tape: #用上下文管理器记录梯度信息
            y = tf.matmul(x_train, w
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值