tensorflow搭建简单回归模型

本文通过使用TensorFlow搭建简单的线性回归模型,介绍了TensorFlow的基本操作与使用方法。通过训练一组虚构的数据集,演示了如何定义变量、构建计算图、设置损失函数,并利用梯度下降法进行模型训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

这是使用tensorflow 搭建一个简单的回归模型,用于熟悉tensorflow的基本操作和使用方法。

模型说明

这是一个简单的线性回归模型
image.png

损失函数是均方误差
image.png

这个有机器学习基础的同学应该很熟悉了。

模型数据

造的假的

# 训练数据
train_X = np.asarray([3.3, 4.4, 5.5, 6.71, 6.93, 4.168, 9.779, 6.182, 7.59, 2.167,
                         7.042, 10.791, 5.313, 7.997, 5.654, 9.27, 3.1])
train_Y = np.asarray([1.7, 2.76, 2.09, 3.19, 1.694, 1.573, 3.366, 2.596, 2.53, 1.221,
                         2.827, 3.465, 1.65, 2.904, 2.42, 2.94, 1.3])
n=train_X.shape[0]

模型构建

根据之前说的tensorflow构建模型思路。
1、构造图节点
2、创建会话

构造图的节点

#定义两个变量的op占位符
X=tf.placeholder("float")
Y=tf.placeholder("float")

初始化权重w和偏置b

#初始化w,b
W=tf.Variable(random.random(),name="weight")
b=tf.Variable(random.random(),name="bias")

根据线性模型公式
y=wx+b
构造运算op

#初始化模型 pred op
pred=tf.add(tf.multiply(X,W),b)

根据损失函数做出COST op

#初始化cost op
cost=tf.reduce_sum(tf.pow(pred-Y,2))/(2*n)

初始化模型参数

#初始化模型参数
learning_rate=0.01
training_epochs=1000
display_step=50

构建梯度下降的op

#构建梯度下降op
optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

训练模型要初始化所有的op(这个op在会话一开始就运行,只是初始化而已)

#初始化所有变量 op
init=tf.global_variables_initializer()

我们构造的计算图为
image.png
好了我们的图构造好了。可以创建会话进行运算了。会话可以自动帮我们找依赖关系,所以我们不用一个一个进行计算了。

创建会话

我们明确一下会话执行步骤
1、执行一次init op
2 、执行GD
结束了。。因为会自动帮我们找到依赖,所以我们只需要执行最后一个op即可。

#使用session 启动默认图
with tf.Session() as sess:
    sess.run(init) #初始化



    for epoch in range(training_epochs):
        for (x,y) in zip(train_X,train_Y):
            sess.run(optimizer,feed_dict={X:train_X,Y:train_Y})


    #上面就已经结束了。计算一下cost 、w、b的值
    print ("optimization Finished")
    training_cost = sess.run(cost,feed_dict={X:train_X,Y:train_Y})
    print ("Training cost=",training_cost,"W=",sess.run(W),"b=",sess.run(b),"\n")


    #画图
    plt.plot(train_X,train_Y,'ro',label="Original data")
    plt.plot(train_X,sess.run(W)*train_X+sess.run(b),label="Fitted line")
    plt.legend()
    plt.show()

image.png

是不是so easy

### 使用 TensorFlow 低阶 API 构建逻辑回归模型 逻辑回归是一种用于解决分类问题的线性模型。在 TensorFlow 中,使用低阶 API 可以更好地理解张量操作、变量管理以及梯度计算等核心机制[^4]。以下是一个完整的代码示例,展示如何使用 TensorFlow 低阶 API 实现逻辑回归模型。 #### 数据准备 首先需要定义输入数据和标签。假设我们有一个简单的二分类问题。 ```python import tensorflow as tf import numpy as np # 设置随机种子以确保结果可复现 np.random.seed(42) # 生成模拟数据 num_samples = 1000 num_features = 2 X_data = np.random.randn(num_samples, num_features).astype(np.float32) y_data = (X_data[:, 0] + X_data[:, 1] > 0).astype(np.int32) # 简单线性分类边界 y_data = y_data.reshape(-1, 1) # 转换为列向量 ``` #### 模型参数初始化 定义权重 `W` 和偏置 `b`,并将其初始化为零或小随机值。 ```python # 定义模型参数 W = tf.Variable(tf.zeros([num_features, 1]), dtype=tf.float32) b = tf.Variable(tf.zeros([1]), dtype=tf.float32) ``` #### 定义前向传播过程 通过矩阵乘法和加法实现逻辑回归的线性部分,并使用 Sigmoid 函数进行非线性变换。 ```python # 前向传播函数 def logistic_regression(X): logits = tf.matmul(X, W) + b # 线性部分 return tf.sigmoid(logits) # 非线性变换 ``` #### 定义损失函数 使用交叉熵作为损失函数,衡量预测值与真实值之间的差异。 ```python # 定义损失函数 def compute_loss(y_true, y_pred): epsilon = 1e-7 # 防止 log(0) 的情况 y_pred_clipped = tf.clip_by_value(y_pred, epsilon, 1. - epsilon) loss = -tf.reduce_mean( y_true * tf.math.log(y_pred_clipped) + (1 - y_true) * tf.math.log(1 - y_pred_clipped) ) return loss ``` #### 定义优化器 使用梯度下降优化器来更新模型参数。 ```python # 定义优化器 optimizer = tf.optimizers.SGD(learning_rate=0.01) ``` #### 训练过程 通过迭代更新模型参数以最小化损失。 ```python # 训练模型 for epoch in range(500): with tf.GradientTape() as tape: y_pred = logistic_regression(X_data) loss = compute_loss(y_data, y_pred) gradients = tape.gradient(loss, [W, b]) # 计算梯度 optimizer.apply_gradients(zip(gradients, [W, b])) # 更新参数 if epoch % 50 == 0: print(f"Epoch {epoch}, Loss: {loss.numpy():.4f}") ``` #### 测试模型 评估模型在测试集上的表现。 ```python # 测试模型 test_X = np.array([[1.0, 1.0], [-1.0, -1.0]], dtype=np.float32) test_y = logistic_regression(test_X) predictions = tf.cast(test_y > 0.5, dtype=tf.int32) print("Test Predictions:", predictions.numpy()) ``` --- #### 代码解析 1. **数据生成**:通过随机生成符合特定分布的数据,模拟一个简单的二分类问题[^1]。 2. **模型定义**:逻辑回归的核心是线性变换 `Wx + b` 和 Sigmoid 激活函数[^4]。 3. **损失函数**:交叉熵损失适合处理分类问题,能够有效衡量预测概率与真实标签之间的差距[^4]。 4. **优化器**:梯度下降算法通过计算损失对参数的梯度,逐步调整参数以降低损失[^1]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值