关于非线性回归问题的学习总结
解决非线性回归问题方法之一是将非线性回归问题转化为线性回归的问题。
关于非线性回归的原理看台湾大学林轩田老师的《机器学习基石》课程。然后
python代码实现的过程就是利用sklearn中from sklearn.preprocessing import
Polynomial Features 求出非线性问题转化为线性问题的映射。再利用线性回归
方法进行拟合和打分。
在学习线性回归问题时,会遇到关于最小二乘法的讲解。我的疑问是在sklearn集成的线性回归的算法from sklearn.linear_model import LinearRegression是怎么体现最小二乘法求解的呢?后来看了sklearn文件,原来LinearRegression就是普通的最小二乘回归线性问题。
在网上搜过教程的时候发现还有利用梯度下降法解线性回归方程。这个和sklearn里面的有什么区别呢。https://blog.youkuaiyun.com/ybdesire/article/details/67701289 这个网址详细介绍了from sklearn.linear_model import LinearRegression的源代码的解释,最后发现这个求解和梯度下降没有关系。