首先是一些背景知识: 最速梯度下降法(GD)和牛顿法可以用来优化所有种类的函数。 牛顿高斯和基于牛顿高斯的LM法只能用来优化非线性最小二乘。 SGD是最速梯度下降法的改进,也就是每次迭代随即选取一些样本进行优化。 一般大型优化问题不会用二阶的牛顿法。 Ceres是针对所有种类的函数的优化,所以只能用最速梯度下降法。 G2o是求解的一个标准的最小二乘 GTSAM准确的说不是解的优化方程。而是先把一个概率图的联合概率的信息矩阵和信息向量表示出来(