1.简单交叉验证( hold-out cross validation)
全部数据分成训练集,测试集两部分。训练集用于训练模型,测试集用于测试模型效果。
两个数据集没有交叉,避免了过拟合现象。
2.k折交叉验证 k-fold cross validation
将全部数据集分成k个不相交的子集,将训练集和测试集平均分配到每一个子集中。
拿出其中一个子集作为测试集,其他k-1个子集作为训练集。
这个方法充分利用了所有样本,但计算比较复杂,需要训练k次,测试k次。
3.留一法 leave-one-out cross validation
每次只留下一个样本做测试集,其他样本用于训练。
如果有k个样本,需要训练k次,测试k次。
留一法计算最繁琐,但样本利用率最高,适用于小样本的情况。