ADMM和ALM的区别
https://blog.youkuaiyun.com/shanglianlm/article/details/46808793
拉格朗日对偶:
https://www.cnblogs.com/90zeng/p/Lagrange_duality.html
对偶函数例子:
https://blog.youkuaiyun.com/quiet_girl/article/details/79065343
共轭函数
https://blog.youkuaiyun.com/shenxiaolu1984/article/details/78194053
弄明白了为什么ADMM会比增强拉格让日快,因为增强拉格朗日方法的变量更新的时候没有并行化处理,使得变量内部更新存在流水线的排队性,而用ADMM把之前的变量分解成若干的小变量,各个小变量分别进行各自的迭代更新,会使得这个过程加速
https://blog.youkuaiyun.com/shanglianlm/article/details/45919679