1. 回归模型
线性回归(Linear Regression):用于预测连续变量,通过拟合一个线性方程来最小化预测值和实际值之间的误差。
多元线性回归(Multiple Linear Regression):扩展线性回归模型,使用多个特征进行预测。
岭回归(Ridge Regression)和Lasso回归(Lasso Regression):用于处理多重共线性问题,通过引入正则化项来避免过拟合。
2. 分类模型
逻辑回归(Logistic Regression):用于二分类问题,通过逻辑函数将线性组合的输入映射到一个概率值。
支持向量机(SVM):通过找到最优超平面来区分不同类别。
决策树(Decision Tree):通过构建树状模型来进行分类决策。
随机森林(Random Forest):通过集成多棵决策树来提高模型的稳定性和准确性。
K近邻(K-Nearest Neighbors, KNN):通过测量新样本与训练样本的距离来进行分类。
3. 集成学习模型
随机森林(Random Forest):由多棵决策树组成的集成模型,利用投票机制进行分类或回归。
梯度提升树(Gradient Boosting Trees, GBT):通过逐步构建多个弱学习器来提高预测精度。
XGBoost和LightGBM:改进的梯度提升模型,具有更高的效率和性能。
4. 时间序列预测模型
自回归模型