走进tensorflow第五步——一个小例子探究权重和学习率

26 篇文章 ¥9.90 ¥99.00
通过一个TensorFlow实例,探讨了学习率和权重对模型训练的影响。实验发现,学习率增大虽能提高精度,但也导致训练时间增加。在迭代次数固定时,适度增加学习率能显著提升精度;当迭代次数增加,学习率再增大,精度不再提升。这一观察挑战了传统认知,暗示特定场景下,适当高的学习率可能有益。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

来一次从零开始的tensorflow实战吧……

从简至繁吧,代码注释比较详细,来看:

# -*- coding: utf-8 -*-
import numpy as np
import tensorflow as tf
import time

x_0=np.array([[1],[2],[1]]) #生成一个损失函数系数数组
x=tf.placeholder(tf.float32,[3,1])  #占位符,第一个参数为类型,第二个为形状
w=tf.Variable([0],dtype=tf.float32)  #定义变量w,初始值为0.0

loss=x[0]*w**2+x[1]*w+x[2] #定义损失函数
train=tf.train.GradientDescentOptimizer(0.001).minimize(loss) #梯度下降优化,学习率为0.001
init=tf.global_variables_initializer()  #初始化变量

#启动图
sess=tf.Session()
sess.run(init)
print(sess.run(w))  #显示w初值

go=time.time()  #开始执行的时间
for i in range(1000):  #迭代1000次
    sess.run(train,feed_dict={x:x_0})  #用feed_dict给x传值
over=time.time() #结束时间 

print(sess.run(w))    #打印训练之后的w,-1为最优
print(str(1000*(over-go))+'ms')   #显示训练时间,单位为s,转化为毫秒更直观

动态地给损失函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

beyond_LH

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值