tensorflow学习记录2-非线性回归问题

非线性回归问题

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

使用matplotlib包可视化。

#使用numpy生成200个随机点
x_data = np.linspace(-0.5,0.5,200)[:,np.newaxis]  #增加了一个维度,200行一列
noise = np.random.normal(0,0.02,x_data.shape)# 和x_data形状一样
y_data = np.square(x_data)+noise

# 定义两个placeholder,形状根据样本定义
x=tf.placeholder(tf.float32,[None,1])
y=tf.placeholder(tf.float32,[None,1])

#输入一个x,经过神经网络计算,输出一个y就是预测值,预测值和真实值接近就成功了
#定义神经网络中间层,输入一个神经元,中间层10个神经元,输出一个神经元
weights_l1 = tf.Variable(tf.random_normal([1,10]))  #给随机赋值,形状是一行10列
biases_l1 = tf.Variable(tf.zeros([1,10]))  # 偏置值初始化为0
wx_plus_b_l1 = tf.matmul(x,weights_l1)+biases_l1  #输入x是一个矩阵,权值也是一个矩阵,用了矩阵的乘法
l1 = tf.nn.tanh(wx_plus_b_l1)  # 中间层的输出

# 定义神经网络输出层
weights_l2 = tf.Variable(tf.random_normal([10,1]))
biases_l2 = tf.Variable(tf.zeros([1,1]))
wx_plus_b_l2 = tf.matmul(l1,weights_l2)+biases_l2
prediction = tf.nn.tanh(wx_plus_b_l2)

#定义二次代价函数
loss = tf.reduce_mean(tf.square(y-prediction))
# 使用梯度下降法训练
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
with tf.Session() as sess:
    #变量初始化
    sess.run(tf.global_variables_initializer())
    for _ in range(2000):
        sess.run(train_step,feed_dict={x:x_data,y:y_data})
    
    #获得预测值
    prediction_value = sess.run(prediction,feed_dict={x:x_data})
    #画图
    plt.figure()
    plt.scatter(x_data,y_data)
    plt.plot(x_data,prediction_value,'r-',lw=5) # 画红色的线
    plt.show()

在这里插入图片描述
蓝色是200个样本点,加了噪音上下移动,训练好了生成一条红线。这些点距离红线的偏差是最小的。
重点关注预测值,它是输出层的总和,优化权值和偏置值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值