一、集成学习方法
在机器学习中的集成学习可以在一定程度上提高预测精度,常见的集成学习方法有Stacking、Bagging和Boosting,同时这些集成学习方法与具体验证集划分联系紧密。
由于深度学习模型一般需要较长的训练周期,如果硬件设备不允许建议选取留出法,如果需要追求精度可以使用交叉验证的方法。
下面假设构建了10折交叉验证,训练得到10个语义分割模型。

那么在10个CNN模型可以使用如下方式进行集成:
- 对预测的结果的概率值进行平均,然后解码为具体字符;
- 对预测的字符进行投票,得到最终字符;
二、深度学习中的集成学习
1.Dropout
略
2.TTA
测试集数据扩增(Test Time Augmentation,简称TTA)也是常用的集成学习技巧,数据扩增不仅可以在训练时候用,而且可以同样在预测时候进行数据扩增,对同一个样本预测三次,然后对三次结果进行平均。

for idx, name in enumerate(tqdm_notebook(glob.glob('./test_mask/*.png')[

本文介绍了深度学习中的集成学习方法,如利用Dropout、TTA(Test Time Augmentation)和Snapshot技术提高模型的预测精度。通过10折交叉验证训练的10个CNN模型,可以采取概率平均或投票策略进行集成。此外,Dropout在训练时用于正则化,TTA在预测时通过数据扩增提升模型稳定性,而Snapshot则利用周期性学习率变化保存多个模型快照以实现集成。这些策略能够有效避免过拟合,提高模型的泛化能力。
最低0.47元/天 解锁文章
374

被折叠的 条评论
为什么被折叠?



