回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系。例如,司机的鲁莽驾驶与道路交通 事 故数量之间的关系,最好的研究方法就是回归。\n\n三、线性回归的定义是: 目标值预期是输入变量的线性组合. 线性模型形式简单, 易于建模, 但却蕴含着机器学习中一些重要的基本思想. 线性回归, 是利用数理统计中回归分析, 来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法, 运用十分广泛.\n\n优点: 结果易于理解, 计算不复杂\n\n缺点: 对非线性的数据拟合不好\n\n四、岭回归和Lasso回归:\n\n\n\n 出现过拟合时,岭回归和R2正则化,降低样本的特征的权重。\n\n如果数据集中样本特征较少,且每个特征都重要,选L2(Ridge)正则化;如果数据集中样本特征较多,且只有一部分重要,选L1(Lasso)正则化;