使用Keras包装器进行交叉验证评估模型
1. 交叉验证方法比较
1.1 LOO交叉验证的特点
LOO(Leave-One-Out)交叉验证每次迭代几乎使用数据集中的所有示例来训练模型,而训练集/测试集方法会使用相对较大的数据子集进行评估,且这些数据不用于训练。因此,LOO对模型性能的估计更接近在整个数据集上训练的模型性能,这是LOO交叉验证相对于训练集/测试集方法的主要优势。
此外,由于LOO交叉验证每次迭代仅使用一个唯一的数据示例进行评估,且每个数据示例也用于训练,因此该方法没有随机性。如果在相同的数据集和模型上多次重复LOO交叉验证,最终报告的测试错误率每次都会完全相同。
然而,LOO交叉验证的缺点是计算成本高。因为模型需要训练n次,在n很大和/或网络很大的情况下,完成训练需要很长时间。
1.2 K折交叉验证与LOO交叉验证的比较
实际上,LOO交叉验证是k折交叉验证的一种特殊情况,其中k = n。但选择k = n与选择k = 5或k = 10相比,计算成本非常高。因此,k折交叉验证相对于LOO交叉验证的第一个优势是计算成本较低。
一般来说,在机器学习和数据分析中,最理想的模型是偏差和方差都最低的模型。从偏差和方差的角度比较训练集/测试集方法、k折交叉验证和LOO交叉验证,发现偏差和方差都较低的区域相当于k值在5到10之间的k折交叉验证。
以下是常见交叉验证方法的比较表格:
| 交叉验证方法 | 优点 | 缺点 | 适用场景 |
| — | — | — | — |
| LOO交叉验证 | 性能估计接近全量数据训练结果,无随机性 | 计算成
超级会员免费看
订阅专栏 解锁全文
32

被折叠的 条评论
为什么被折叠?



