非线性回归问题
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
使用matplotlib包可视化。
#使用numpy生成200个随机点
x_data = np.linspace(-0.5,0.5,200)[:,np.newaxis] #增加了一个维度,200行一列
noise = np.random.normal(0,0.02,x_data.shape)# 和x_data形状一样
y_data = np.square(x_data)+noise
# 定义两个placeholder,形状根据样本定义
x=tf.placeholder(tf.float32,[None,1])
y=tf.placeholder(tf.float32,[None,1])
#输入一个x,经过神经网络计算,输出一个y就是预测值,预测值和真实值接近就成功了
#定义神经网络中间层,输入一个神经元,中间层10个神经元,输出一个神经元
weights_l1 = tf.Variable(tf.random_normal([1,10])) #给随机赋值,形状是一行10列
biases_l1 = tf.Variable(tf.zeros([1,10])) # 偏置值初始化为0
wx_plus_b_l1 = tf.matmul(x,weights_l1)+biases_l1 #输入x是一个矩阵,权值也是一个矩阵,用了矩阵的乘法
l1 = tf.nn.tanh(wx_plus_b_l1) # 中间层的输出
# 定义神经网络输出层
weights_l2 = tf.Variable(tf.random_normal([10,1]))
biases_l2 = tf.Variable(tf.zeros([1,1]))
wx_plus_b_l2 = tf.matmul(l1,weights_l2)+biases_l2
prediction = tf.nn.tanh(wx_plus_b_l2)
#定义二次代价函数
loss = tf.reduce_mean(tf.square(y-prediction))
# 使用梯度下降法训练
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
with tf.Session() as sess:
#变量初始化
sess.run(tf.global_variables_initializer())
for _ in range(2000):
sess.run(train_step,feed_dict={x:x_data,y:y_data})
#获得预测值
prediction_value = sess.run(prediction,feed_dict={x:x_data})
#画图
plt.figure()
plt.scatter(x_data,y_data)
plt.plot(x_data,prediction_value,'r-',lw=5) # 画红色的线
plt.show()
蓝色是200个样本点,加了噪音上下移动,训练好了生成一条红线。这些点距离红线的偏差是最小的。
重点关注预测值,它是输出层的总和,优化权值和偏置值。