2.7:tensorflow实现模型优化
步骤:1)定义输入数据 2)定义目标数据(label) 3)定义输入的placeholder 4)定义目标的placeholder 5)定义需要更新的权重(tf.Variable)
6)定义目标的产生方式(输入数据与权重之间的运算) 7)定义损失函数 8)声明优化器 9)在循环中将数据送入优化器进行优化
batch_size = 20
x_vals = np.random.normal(1, 0.1, 100)
y_vals = np.repeat(10., 100)
x_data = tf.placeholder(shape=[None, 1], dtype=tf.float32)
y_target = tf.placeholder(shape=[None, 1], dtype=tf.float32)
A = tf.Variable(tf.random_normal(shape=[1,1]))
my_output = tf.matmul(x_data, A)
loss = tf.reduce_mean(tf.square(my_output-y_target))
init = tf.global_variables_initializer()
sess.run(init)
my_opt = tf.train.GradientDescentOptimizer(0.5)
train_step = my_opt.minimize(loss)
loss_batch = []
for i in range(100):
rand_index = np.random.choice(100,size=batch_size)
rand_x = np.transpose([x_vals[rand_index]])
rand_y = np.transpose([y_vals[rand_index]])
sess.run(train_step, feed_dict={x_data:rand_x,y_target:rand_y})
if (i+1)%5 == 0:
print('Step # ' + str(i+1) + ' A = ' + str(sess.run(A)))
temp_loss = sess.run(loss,feed_dict={x_data:rand_x, y_target:rand_y})
print('Loss = ' + str(temp_loss))
loss_batch.append(temp_loss)
书中学习速率为0.002,运行结果较差,当改为0.5时,结果较好。 当不使用batch训练时,0.002运行结果较好。原因不明,日后考虑。
注意上图中的np.array([[x[0],x[1]] for x in a]),这个[ ] 十分重要,缺少会导致图中情况发生。
2.9Tensorflow实现模型评估
np.random.normal(u,σ,n_samples) np.repeat(num,n_samples)