然后我们首先来看一下上一节说了,批量梯度下降处理,可以看到上面的公式
这里的thetaj: 就是下一个theta要求的,然后它 = thetaj + 阿尔法 注意阿尔法是 学习率
也就是之前我们说的,一维数据的时候 theta t+1 = theta - g .h 这里的h就是学习率,
也就是这里的阿尔法一个意思,然后后面的
这个部分是学习率.
批量梯度下降,其实就是,每一个theta的获取,我们都带入m个样本数据,不是一样,我们,具体说是m行n列对吧,然后,以前我们是1维的,带入的就是1个