一、算法:线性回归
二、策略:均方误差
三、优化:梯度下降API、学习率
线性回归:w1x1+w2x2+w3x3+…+wnxn+bias
1、准备好特征值和目标值
2、建立模型,随机初始化准备一个权重w,一个偏置b
y_predict = x*w +b(模型的参数必须用变量定义)
3、求损失函数,误差
loss均方误差 (y1-y1’)2+…+(y100-y100’)2/100
4、梯度下降去优化损失过程,指定学习率
矩阵相乘:(m,n)(n,1) ->(m,1)+bias
Tensorflow运算API
1、矩阵运算
tf.matmul(x,w)
2、平方
tf.square(error)
3、均值
tf.reduce_mean(error)
梯度下降API
tf.train.GradientDescentOptimizer(learning_rate)梯度下降优化
learning_rate:学习率,一般为
method:
minimize(loss)
return:梯度下降op
案例:
import tensorflow as tf
def myregression():
“”"
自实现一个线性回归预测
:return:None
“”"
#1、准备数据,x 特征值 [100,1] y目标值[100]
x = tf.random_normal([100,1],mean=1.75,stddev=0.5,name=‘x_data’)
#矩阵相乘必须是二维的
y_true = tf.matmul(x,[[0.7]]) + 0.8
#2、建立线性回归模型,1个特征,1个权重,1个偏置y = x*w +b
#随机给一个权重和偏置的值,让它去计算损失,然后在当前状态下优化
#用变量定义才能优化
weight = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')
bias = tf.Variable(0.0,name='b')
y_predict = tf.matmul(x, weight) + bias
#3、建立损失函数,均方误差
loss = tf.reduce_mean(tf.square(y_true - y_predict))
#4、梯度下降优化损失 learning_rate:0-1,2,3,5,7,10
train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
#定义一个初始化两边的op
init_op = tf.global_variables_initializer()
#通过会话运行程序
with tf.Session() as sess:
#初始化变量
sess.run(init_op)
#打印随机最先初始化的权重和偏置
print('随机初始化的参数权重为: %f,偏置为: %f' % (weight.eval(),bias.eval()))
#循环训练 运行优化
for i in range(200):
sess.run(train_op)
print('第%d次优化参数权重为: %f,偏置为: %f' % (i,weight.eval(), bias.eval()))
return None
if name == ‘main’:
myregression()