使用 Keras 包装器进行交叉验证评估模型
1. 交叉验证方法比较
在机器学习和数据分析中,交叉验证是评估模型性能的重要方法。常见的交叉验证方法有留一法(LOO)交叉验证和 k 折交叉验证。
1.1 留一法(LOO)交叉验证
在 LOO 交叉验证的每次迭代中,几乎所有的数据示例都用于训练模型,只有一个独特的数据示例用于评估。因此,LOO 对模型性能的估计更接近在整个数据集上训练的模型的性能,这是 LOO 交叉验证相对于训练集/测试集方法的主要优势。
此外,由于在 LOO 交叉验证的每次迭代中只使用一个唯一的数据示例进行评估,并且每个数据示例也都用于训练,因此该方法没有随机性。如果在相同的数据集和相同的模型上多次重复 LOO 交叉验证,每次报告的最终测试错误率将完全相同。
然而,LOO 交叉验证的缺点是计算成本高。因为模型需要训练 n 次,在 n 很大和/或网络很大的情况下,完成训练需要很长时间。
1.2 k 折交叉验证与 LOO 方法比较
实际上,LOO 交叉验证是 k 折交叉验证的一种特殊情况,其中 k = n。但与选择 k = 5 或 k = 10 相比,选择 k = n 的计算成本非常高。因此,k 折交叉验证相对于 LOO 交叉验证的第一个优势是计算成本较低。
一般来说,在机器学习和数据分析中,最理想的模型是偏差和方差都最低的模型。研究表明,偏差和方差都较低的区域相当于 k 值在 5 到 10 之间的 k 折交叉验证。
以下是常见交叉验证方法的比较表格:
| 方法 | 优点 | 缺点 |
| ---- | ---- | ---
超级会员免费看
订阅专栏 解锁全文
37

被折叠的 条评论
为什么被折叠?



