上一篇文章中提到了一般情况下(θ0不为0)梯度下降算法的寻找最小的θ0,θ1。
根据之前的消费函数,改变后的更新式子如下:
根据训练集中的训练实例不断更新两个偏导数的值,从而得到最小J(θ0,θ1)的。
在课程中介绍了线性代数的部分知识:
1. 矩阵的加减运算。
2. 矩阵的代数运算。
3. 矩阵与向量之间的运算
4. 矩阵与矩阵的符合运算
5.矩阵的转置与矩阵的逆
想要了解的可以查看 http://www.tongji.edu.cn/~math/xxds/kcja/kcja_a/01.htm
本文介绍了一般情况下使用梯度下降算法求解最小θ0和θ1的方法,并给出了具体的更新公式。同时,文章还概述了线性代数的基础知识,包括矩阵运算等内容。
1083

被折叠的 条评论
为什么被折叠?



