可以看到上面我们那个公式,现在我们用梯度下降实现一下,比如我们有一堆数据,但是没有方程的情况下,我们来看一下如果计算,对应的w值也就是seta值对吧,没有方程我们可以使用梯度下降
这里首先我们可以设置一个0.0001.我们知道梯度下降的公式,
梯度下降刚开始的时候,下降会快,然后慢慢的,x和x-1 的,间距,也就是步幅,或者说学习率会越来越小,当我们比如这里规定,当
x和x-1的间距,小于0.0001的时候,这个时候我们认为处理完毕,找到了最小值seta
eta=0.1 #学习率 我们把学习率,也就是步幅 设置为0.1
# 梯度下降5,749,算不算答案
#随机,初始值
x=np.random.randint(0,12,size=1)[0] #这个其实就是随机初始化一个值,