相同
1.本质相同:两种方法都是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的dependent variables进行估算。
2.目标相同:都是在已知数据的框架内,使得估算值与实际值的总平方差尽量更小(事实上未必一定要使用平方),估算值与实际值的总平方差的公式为:
不同
1.实现方法和结果不同:最小二乘法是直接对求导找出全局最小,是非迭代法。而梯度下降法是一种迭代法,先给定一个
,然后向
下降最快的方向调整
,在若干次迭代之后找到局部最小。梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感,其改进大多是在这两方面下功夫。
本文探讨了最小二乘法与梯度下降法这两种常用的数值优化方法之间的异同。它们都用于根据已知数据拟合模型并预测未知数据,但实现方式和效果有所不同。最小二乘法直接通过求导寻找全局最优解,而梯度下降法则通过迭代逐步逼近局部最小值。
2379

被折叠的 条评论
为什么被折叠?



