Underfitting 清洗数据,增加数据根据先验知识对数据扩充变换, 增加特征 删除噪音特征 调低正则项的惩罚参数 换更“复杂”的模型(如把线性模型换为非线性模型) 多个模型级联或组合(集成学习) 迁移学习(借用大模型进行微调) Overfitting 增加数据根据先验知识对数据扩充变换,生成对抗网络, 进行特征选择 降维(如对特征进行聚类、主题模型进行处理等)Dropout方法 提高正则项的惩罚参数 减少训练迭代次数 换更“简单”的模型(如把非线性模型换为线性模型) 集成学习