TensorFlow2.0搭建神经网络最简单的入门

本文根据北大TensorFlow2.0笔记,总结了搭建神经网络的六步法,并通过鸢尾花数据集实战,展示模型搭建过程。经过500次迭代,训练集损失为0.4425,准确率为0.8583;测试集损失为3130,准确率为0.9667。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

根据北大TensorFlow2.0笔记的内容,总结搭建神经网络的六步法
六部曲
以鸢尾花数据集实例来进行模型的搭建

import tensorflow as tf
from sklearn import datasets
import numpy as np

#导入训练集 以及训练集的标签
x_train = datasets.load_iris().data
y_train = datasets.load_iris().target
#实现对数据集的乱序
#seed( ) 用于指定随机数生成时所用算法开始的整数值。
#1.如果使用相同的seed( )值,则每次生成的随即数都相同;
np.random.seed(116
TensorFlow 2.0中,搭建神经网络的一个简单实例通常涉及以下几个步骤: 首先,你需要安装TensorFlow库,如果还没有的话,可以使用以下命令: ```bash pip install tensorflow ``` 然后,你可以开始创建一个基本的全连接层(Dense Layer)神经网络模型。这里是一个简单的多层感知机(Multilayer Perceptron, MLP)的示例: ```python import tensorflow as tf from tensorflow.keras import layers # 定义超参数 input_dim = 784 # 输入维度,例如对于MNIST数据集,每个像素为1 hidden_units = [512, 256] # 隐藏层神经元的数量 output_dim = 10 # 输出类别数,如MNIST有10个数字 # 创建模型 model = tf.keras.Sequential([ layers.Dense(hidden_units[0], activation='relu', input_shape=(input_dim,)), # 第一层隐藏层 layers.Dense(hidden_units[1], activation='relu'), # 后续隐藏层 layers.Dense(output_dim, activation='softmax') # 输出层,用于分类 ]) # 编译模型 model.compile(optimizer='adam', loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), metrics=['accuracy']) # 示例输入数据 example_input = tf.random.uniform((1, input_dim)) # 打印模型概况 model.summary() ``` 在这个例子中,我们使用了ReLU激活函数和Adam优化器,并设置了交叉熵损失。`summary()`方法展示了模型的结构。 如果你想训练这个模型,还需要准备训练数据,比如加载MNIST数据集: ```python (x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data() # 归一化 x_train, x_test = x_train / 255.0, x_test / 255.0 # 将图像数据调整为适合神经网络的形状 x_train = x_train.reshape(-1, input_dim) x_test = x_test.reshape(-1, input_dim) # 训练模型 model.fit(x_train, y_train, epochs=5, validation_data=(x_test, y_test)) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值